خدمات وب آمازون (AWS) به تازگی کنفرانس re:Invent خود را در لاس وگاس آغاز کرده است که بیشتر آنها شامل محبوب ترین فناوری سال، هوش مصنوعی است. این اخبار، در مجموع، نگاهی گذرا به اهداف بلندمدت این شرکت برای پلتفرمهای هوش مصنوعی به ما میدهد.
اول از همه، AWS رونمایی کرد برای آموزش مدل و برای اجرای مدل های آموزش دیده در نظر گرفته شده است. Trainium2، که مشخصاً برای آموزش مدل است، به گونه ای طراحی شده است که در مقایسه با نسل قبلی خود، تا ۴ برابر عملکرد بهتر و ۲ برابر بازده انرژی ارائه دهد. آمازون وعده می دهد که این تراشه ها به برنامه نویسان اجازه می دهد تا به دلیل کاهش مصرف انرژی، مدل ها را سریع و با هزینه کمتر آموزش دهند. انسان شناسی، قبلاً اعلام کرده است که قصد دارد مدل هایی با استفاده از تراشه های Trainium2 بسازد.
از طرف دیگر Graviton4 بیشتر برای استفاده عمومی است. این پردازنده ها مبتنی بر معماری Arm هستند، اما انرژی کمتری نسبت به تراشه های اینتل یا AMD مصرف می کنند. آمازون وعده افزایش ۳۰ درصدی عملکرد کلی را هنگام استفاده از یک مدل هوش مصنوعی تعبیه شده در پردازنده Graviton4 داده است. این امر میتواند هزینههای رایانش ابری را برای سازمانهایی که به طور منظم از مدلهای هوش مصنوعی استفاده میکنند کاهش دهد و برای کاربران معمولی که فقط به دنبال ساخت عکسهای جعلی از هری پاتر در حال هیاهو یا هر چیز دیگری هستند، سرعت کمی افزایش میدهد.
در مجموع، Graviton4 باید به مشتریان AWS اجازه دهد تا «مقادیر بیشتری از داده را پردازش کنند، حجم کاری خود را مقیاسبندی کنند، زمان رسیدن به نتایج را بهبود بخشند و هزینه کل مالکیت خود را کاهش دهند». امروز در پیش نمایش با انتشار گسترده تر برنامه ریزی شده برای ماه های آینده در دسترس است.
به طور معمول، زمانی که یک شرکت تراشههای داخلی جدید خود را معرفی میکند، برای ارائهدهندگان شخص ثالث فعلی مانند NVIDIA دردسر ایجاد میکند. این شرکت به لطف شرکتهایی که از پردازندههای گرافیکی آن برای آموزش استفاده میکنند، بازیگر بزرگی در فضای هوش مصنوعی سازمانی است مرکز داده مبتنی بر بازو CPU Grace. به جای اجتناب از شراکت به نفع تراشه های اختصاصی، آمازون با ارائه دسترسی ابری به مشتریان سازمانی به آخرین پردازنده های گرافیکی هوش مصنوعی H200 NVIDIA، این رابطه را بیشتر تقویت می کند. همچنین بیش از ۱۶۰۰۰ سوپرتراشه انویدیا GH200 Grace Hopper را به طور خاص برای تیم تحقیق و توسعه NVIDIA اجرا خواهد کرد. این رویکرد مشابه رقیب اصلی هوش مصنوعی خود، مایکروسافت است که در همان زمان همکاری خود را با NVIDIA افزایش داد.
آمازون همچنین اعلام کرد یک نامی که احتمالاً از نیمه خدای پیشتازان فضا الهام گرفته شده است و نه از توطئهفروشان مجاور ترامپ. این به عنوان «نوع جدیدی از دستیار شخصی مولد مبتنی بر هوش مصنوعی» توصیف میشود و به طور خاص برای کمک به سادهسازی پروژههای کاری و وظایف خدمات مشتری طراحی شده است. میتوان آن را متناسب با هر کسبوکاری طراحی کرد و پاسخهای مرتبطی را به سوالات متداول ارائه میدهد. آمازون Q همچنین می تواند به تنهایی محتوا تولید کند و بر اساس درخواست مشتری اقداماتی را انجام دهد. حتی تعاملات را بر اساس نقش کاربر در یک شرکت سفارشی می کند.
در برنامه های ارتباطی مانند Slack و برنامه های ویرایش متن که معمولاً توسط توسعه دهندگان نرم افزار استفاده می شود وجود خواهد داشت. برای این منظور، Q در واقع میتواند کد منبع را تغییر دهد و میتواند به بیش از ۴۰ سیستم سازمانی از جمله Microsoft 365، Dropbox، Salesforce و Zendesk و غیره متصل شود. آمازون Q در حال حاضر به صورت پیش نمایش در دسترس است و به زودی نسخه گسترده تری از آن منتشر خواهد شد. بسته به ویژگی های موجود، هر ماه از ۲۰ تا ۳۰ دلار برای هر کاربر هزینه خواهد داشت.
خب ما اینجا چی یاد گرفتیم؟ آمازون هم مثل بقیه روی هوش مصنوعی شرط بندی می کند. به طور خاص، این شرکت در حال مبارزه با رقیب قدیمی ابر مایکروسافت است تا بتواند شرکتی پیشرو برای هوش مصنوعی مبتنی بر سازمان باشد. همچنین از هوش مصنوعی برای ادامه تسلط خود در فضای محاسبات ابری استفاده می کند و امیدوار است که هر گونه افزایش سهم بازار را برای مایکروسافت و سایر بازیگران مانند گوگل و علی بابا به حداقل برساند.
این مقاله در ابتدا در Engadget در https://www.engadget.com/amazon-says-its-next-gen-chips-are-four-times-faster-for-ai-training-200028416.html?src=rss منتشر شد.
منبع: https://www.engadget.com/amazon-says-its-next-gen-chips-are-four-times-faster-for-ai-training-200028416.html?src=rss