رگبار اعلامیه های هوش مصنوعی آمازون AWS با هدف پیشی گرفتن از مایکروسافت است

آیا آماده اید تا آگاهی بیشتری را به برند خود بیاورید؟ در نظر بگیرید که برای تور AI Impact Tour اسپانسر شوید. درباره فرصت ها بیشتر بدانید اینجا.


غول محاسبات ابری Amazon Web Services (AWS)، تا همین اواخر بوده است به عنوان بازی با رقبای خود تلقی می شود Microsoft Azure و Google Cloud در زمینه نوظهور هوش مصنوعی مولد.

اما در طول دو روز گذشته در آن کنفرانس AWS Re:Inventآمازون با اعلام مجموعه‌ای از اعلان‌ها که نشان می‌دهد می‌خواهد در حمایت از شرکت‌های سازمانی که پروژه‌های هوش مصنوعی مولد می‌کنند، باشد، دستکش‌های خود را در برابر رقبای خود، به‌ویژه مایکروسافت از دست داده است.

امروز، سوامی سیواسوبرامانیان، معاون داده و هوش مصنوعی AWS، طی سخنرانی اصلی خود، به دنبال بسیاری از موارد، یک سری اعلامیه را ارائه کرد. دیروز توسط مدیر عامل AWS آدام سلیپسکی ساخته شد. آنهایی که بزرگ دیروز شامل دستیار آمازون Qبرای رقابت با خلبان مایکروسافت و ارائه انواع کمک به کارمندان سازمانی برای کارشان.

یکی از راه‌هایی که آمازون به دنبال متمایز کردن خود است، ارائه انتخاب به مشتریان است. دیروز سلیپسکی به مایکروسافت اشاره کرد و گفت که به یک شرکت LLM (OpenAI) وابسته است، در حالی که آمازون قصد دارد دسترسی به بسیاری از ارائه دهندگان را ارائه دهد. AWS این کار را از طریق سرویس Bedrock خود انجام می دهد که از بسیاری از مدل های پیشرو LLM از جمله Claude، AI21، Cohere و مدل های خود پشتیبانی می کند. و سیواسوبرامانیان چندین اعلان کرد که قابلیت های Bedrock را بهبود می بخشد، که من به آنها خواهم رسید.

رویداد VB

تور تاثیر هوش مصنوعی

در تور AI Impact VentureBeat که به شهر نزدیک شما می آید، با جامعه هوش مصنوعی سازمانی ارتباط برقرار کنید!

بیشتر بدانید

استراتژی دیگر، از بین بردن سیلوهای بین پایگاه‌های داده مختلف است، به طوری که مشتریان سازمانی بتوانند راحت‌تر از داده‌های اختصاصی خود در هنگام استفاده از LLM استفاده کنند – و AWS نشان داد که به شدت می‌خواهد در آنجا با مایکروسافت برسد. مایکروسافت با پیشبرد ارائه Fabric خود به خوبی عمل کرده است تا نیاز به انتقال داده های پرهزینه و وقت گیر بین پایگاه های داده را برطرف کند.

با در نظر گرفتن همه اینها، در اینجا اعلامیه های اصلی هوش مصنوعی ژنرال امروز آمده است:

۱٫ انتخاب بیشتر LLM، به خصوص از طریق مدل کلود ۲٫۱ آنتروپیک: از طریق Bedrock، آمازون AWS دارد در حال حاضر دسترسی مشتریان سازمانی به مدل ها را فراهم کرده است مانند مدل پایه از پیش آموزش دیده خود، Titan، و همچنین مدل های پایه از اشخاص ثالث، مانند Jurassic AI21، Anthropic’s Claude، Meta’s Llama 2 و Stable Diffusion.

همانطور که انتظار می رفت، Sivasubramanian بعداً پشتیبانی مدل بیشتری از شریک آمازون، Anthropic را اعلام کرد سرمایه گذاری قابل توجه آمازون در آن شرکت در سپتامبر. او در مورد حمایت Bedrocks از مدل‌های کلود آنتروپیک که برای کارهایی مانند خلاصه‌سازی و استدلال پیچیده قوی هستند، صحبت کرد. او از پشتیبانی از کلود ۲٫۱، مدل خبر داد Anthropic دو هفته پیش منتشر شد، که دارای پنجره زمینه ۲۰۰K توکن پیشرو در صنعت است، دقت بهبود یافته و نصف تعداد توهم نسبت به مدل قبلی خود. AWS اولین ارائه‌دهنده ابری است که از Claude 2 پشتیبانی می‌کند. او همچنین اعلام کرد Bedrocks از Llama 2، ۷۰B متا، یک مدل منبع باز پشتیبانی می‌کند – که پشتیبانی مداوم AWS از منبع باز را نشان می‌دهد.

۲٫ پشتیبانی از تعبیه‌های برداری چند وجهی: embeddings برداری فناوری است که متن و فایل های دیگر را به نمایش های عددی به نام بردار ترجمه می کند. این بردارها به مدل‌ها اجازه می‌دهند تا روابط بین کلمات مشابه را راحت‌تر درک کنند، به عنوان مثال که “گربه” از نظر معنایی به “گربه” نزدیک است. آن‌ها به مدل‌ها اجازه می‌دهند تا پاسخ‌های مرتبط‌تری را به کاربرانی که به دنبال چیزها هستند، تولید کنند. آمازون قبلاً تعبیه‌های Titan Text را برای این کار اعلام کرده بود و از آن به صورت داخلی برای توصیه‌های محصول خود در آمازون استفاده کرده بود – اما فقط روی متن کار می‌کرد.

اما سیواسوبرامانیان گفت که شرکت‌ها خواستار قابلیت‌های جستجوی چند وجهی هستند، برای مثال یک فروشگاه مبلمان ممکن است بخواهد به مشتریان خود اجازه دهد با استفاده از تصویر چیزی که به دنبال آن هستند، مبل را جستجو کنند، و جستجوی چند وجهی می‌تواند به آن فروشگاه مبلمان اجازه دهد. برای ارائه نزدیکترین مبل از پایگاه داده هزاران تصویر. آنها می توانند بپرسند “به من نشان بده چه چیزی با مبل من خوب کار می کند.”

بنابراین Sivasubramanian امروز در دسترس بودن کلی Titan Multi-Model Embeddings را اعلام کرد، که ارائه گزینه‌های جستجو و توصیه چندوجهی را در LLMها آسان‌تر می‌کند.

۳٫ مدل های تولید متن Titan TextLite و Titan TextExpress اکنون به طور کلی در دسترس هستند: TextLite یک مدل سبک وزن است که برای خلاصه کردن متن در چت بات‌ها و کپی‌نویسی و تنظیم دقیق خوب است و Titan TextExpress برای تولید متن باز و چت مکالمه خوب است.

۴٫ مولد تصویر تیتاندر حالت پیش نمایش موجود است، برای امنیت، واترمارک های نامرئی تولید می کند (داستان کامل و جداگانه ما را در این مورد ببینید): این مدل مشتریان را قادر می سازد تا تصاویر واقعی با کیفیت بالا را برای بهبود تصاویر موجود با استفاده از اعلان های زبان ساده تولید کنند. کاربران می توانند تصاویر را با استفاده از داده های خود سفارشی کنند تا محتوایی ایجاد کنند که نشان دهنده برند آنها باشد. سیواسوبرامانیان گفت که این بر روی مجموعه متنوعی از داده ها آموزش داده شده است تا خروجی های دقیق را فراهم کند و همچنین برای کاهش سمیت و سوگیری ساخته شده است.

او گفت که آزمایش‌هایی که با ارزیاب‌های انسانی انجام شده است، به مدل امتیاز بیشتری نسبت به مدل‌های رقیب می‌دهد. همچنین، تمام تصاویر تولید شده با این مدل به طور پیش‌فرض دارای یک واترمارک نامرئی هستند که “برای کمک به جلوگیری از انتشار اطلاعات نادرست… و مقاوم در برابر دستکاری” طراحی شده است. او گفت Titan Image Generator اولین محصول موجود در بازار با چنین واترمارکی است.

سیواسوبرامانیان در طول سخنرانی خود از نمونه تصویر یک ایگوانا برای نشان دادن ویژگی های ویرایش مدل استفاده کرد. یکی از ویژگی‌ها به نام «خارج‌سازی» به کاربر اجازه می‌دهد پس‌زمینه یک تصویر را جایگزین کند و در این مورد Sivasubramanian پس‌زمینه ساده را با تصویر یک جنگل بارانی جایگزین کرد. او همچنین نشان داد که چگونه می‌تواند موضوع اصلی، در این مورد خود ایگوانا را تغییر دهد، و چگونه می‌توان از زبان طبیعی برای گفتن، تغییر جهتی که ایگوانا با آن روبروست، استفاده کرد.

۵٫ آسان‌تر کردن تولید تقویت‌شده بازیابی (RAG).: شرکت ها از RAG استفاده می کنند تا به LLM ها اجازه دهند تا در فروشگاه های داده اختصاصی خود جستجو کنند، اما RAG می تواند پیچیده باشد. مهندسان باید داده‌ها را به جاسازی‌های برداری تبدیل کنند، آن‌ها را در پایگاه‌های داده برداری ذخیره کنند، و ممکن است هفته‌ها یا ماه‌ها طول بکشد. آمازون دیروز KnowledgeBase را برای Amazon Bedrock معرفی کرد تا این کار را آسان‌تر کند – به کاربران سازمانی اجازه می‌دهد به سادگی LLM را به مکان داده‌های خود مانند یک سطل S3 نشان دهند. به این ترتیب، AWS Bedrock متن یا اسناد مربوطه را واکشی می کند و تمام تبدیل های برداری را به صورت خودکار انجام می دهد. با پایگاه داده‌های برداری محبوب، مانند Vector Engine، Redis Enterprise Cloud و Pinecone کار می‌کند. و امروز، آمازون اعلام کرد که پشتیبانی از Amazon Aurora، MongoDB و پایگاه‌های اطلاعاتی دیگر “به زودی” ارائه خواهد شد.

۶٫ ارزیابی مدل در آمازون بستر در پیش نمایش: این روشی است که شرکت ها می توانند بهترین مدل پایه را برای موارد استفاده خود ارزیابی، مقایسه و انتخاب کنند.

۷٫ یک برنامه «عامل» خودتان به نام RAG DIY: عوامل هوش مصنوعی مولد اخیراً محبوب شده اند زیرا می توانند تا حدودی مستقل عمل کنند. Agents برنامه‌های کاربردی هوش مصنوعی هستند که وظایف پیچیده‌ای را با فراخوانی پویا API‌های مختلف انجام می‌دهند و آمازون این را با Agents for Amazon که دیروز به طور کلی در دسترس قرار گرفت، پشتیبانی کرده است.

امروز صبح، Sivasubramanian یک عامل فرضی به نام RAG DIY را به نمایش گذاشت تا نشان دهد که عوامل چه کاری می توانند انجام دهند. دستیار RAG DIY مجهز به LLM، بر اساس Claude 2 در Bedrock، به افراد اجازه می دهد تا با استفاده از سوالات زبان طبیعی پروژه های خانگی و دیگر پروژه ها را انجام دهند. سوامی زنی را مثال زد که می خواهد روشویی حمام خود را عوض کند. او می تواند در مورد هر نوع محصولی از دستیار سوال کند و لیستی از مراحل، مواد و ابزار دقیق را به همراه مجوزهای لازم دریافت کند. دستیار از ورودی های کاربر برای تولید تصاویر پروژه با فراخوانی مولد تصویر Titan آمازون استفاده می کند. برنامه RAP DIY از جاسازی های مدل چند وجهی برای جستجوی موجودی گسترده خود و بازیابی همه محصولاتی که برای پروژه خود نیاز دارد استفاده می کند. دستیار می تواند خلاصه ای از نظرات کاربران را برای هر محصولی با تماس با مدل Cohere’s Command که برای کارهای خلاصه تخصصی است، به او ارائه دهد.

۸٫ Gen AI Innovation Center برای کمک به شرکت ها در ساخت مدل های سفارشیAWS مرکز نوآوری را در اوایل سال جاری اعلام کرد، به عنوان راهی برای ارائه کمک های تخصصی به شرکت های سازمانی برای ساخت مدل های پایه، از جمله تخصص علم داده و استراتژی. AWS اعلام کرد که از سال آینده پشتیبانی سفارشی برای ساخت مدل‌های کلود Anthropic ارائه می‌کند، از جمله ارائه تیمی از متخصصان برای کمک به سفارشی‌سازی مدل‌ها با تنظیم دقیق با استفاده از داده‌های خود.

۹٫ Sagemaker Hyperpod برای آموزش مدل به GA حرکت می کند: شرکت ها به طور فزاینده ای متوجه می شوند که فرآیند آموزش مدل های پایه می تواند بسیار چالش برانگیز باشد. این نیاز به حجم عظیمی از داده ها و ایجاد و نگهداری خوشه های گران قیمت از هزاران شتاب دهنده هوش مصنوعی، نوشتن کد برای توزیع آموزش مدل در میان خوشه ها دارد. Hyperpod می تواند همه این کارها را برای شما انجام دهد، به لطف اطلاعیه های اخیر آمازون با Nvidia برای دسترسی ایمن به جدیدترین کلاسترهای GPU. AWS گفت Hyperpod می تواند زمان آموزش مدل را تا ۴۰ درصد کاهش دهد. AWS همچنین تعدادی دیگر از ویژگی‌های Sagemaker را در زمینه‌های استنتاج، آموزش و MLO اعلام کرد.

۱۰٫ یکپارچگی قابل توجه پایگاه داده، از جمله پشتیبانی برداری. آمازون گسترده‌ترین مجموعه پایگاه‌های اطلاعاتی ابری را برای شرکت‌های سازمانی که داده‌ها را مدیریت می‌کنند ارائه می‌کند، اما این پایگاه‌های داده در حالت ذخیره باقی مانده‌اند، و دسترسی شرکت‌های سازمانی به آسانی با LLM را دشوارتر می‌کند. آمازون این پیام را دریافت کرده است و با انتقام گیری برای شکستن این سیلوها کار می کند که توسط مایکروسافت تحریک شده است. ابتکار فابریک خود را تبلیغ می کند، که برخی از تحلیلگران می گویند به آن برتری نسبت به آمازون داده است. آمازون شروع به سرمایه گذاری در این چشم انداز به اصطلاح صفر ETL کرده است که شروع به اجرای آن کرده است سال گذشته با ادغام برخی از پایگاه های داده خود مانند Aurora و Redshift.

امروز، AWS ادغام آمازون OpenSeach و Amazon S3 را اعلام کرد که به کاربران اجازه می‌دهد تمام داده‌های گزارش خود را در یک مکان واحد بدون ایجاد خطوط لوله ETL تجزیه و تحلیل و تجسم کنند. این امر پس از آن صورت می‌گیرد که آمازون دیروز یکپارچگی صفر-ETL بین پایگاه داده Redshift lakehouse خود و پایگاه‌های داده محبوب Aurora Postgres، Dynamo DB، و Redis MySQL و همچنین بین DynamoDB و OpenSearch را اعلام کرد.

اما تمایل سازمانی برای یکپارچه سازی همچنین شامل اجازه دادن به داده های برداری برای ذخیره و پرس و جو در پایگاه داده های متعدد است. اخیراً آمازون اضافه کرده است پشتیبانی جستجوی برداری از Aurora MySQL آمازون، یک پایگاه داده رابطه‌ای مبتنی بر ابر. و در ماه جولای آمازون یک قابلیت پایگاه داده برداری، Vector Engine را راه اندازی کرد، برای محصول OpenSearch Serverless خود، در حالت پیش نمایش. امروز، این به در دسترس بودن عمومی منتقل شد.

همچنین امروز، AWS اعلام کرد که DocumentDB و DynamoDB، دو پایگاه داده محبوب‌تر آن، با جستجوی برداری پشتیبانی می‌شوند و مشتریان DocumentDB می‌توانند داده‌های منبع و داده‌های برداری خود را با هم در یک پایگاه داده ذخیره کنند.

۱۱٫ جستجوی برداری موجود برای DB درون حافظه برای Redis (حالت پیش نمایش). سیواسوبرامانیان نیاز شرکت های بزرگ متمرکز بر امنیت مانند بانک ها را برای استفاده از جستجوی برداری “فوق العاده سریع” برای موارد استفاده مانند کشف تقلب یا چت ربات های بلادرنگ برجسته کرد. او گفت که DB for Redis اکنون می‌تواند میلیون‌ها بردار را ذخیره کند و زمان پاسخ‌دهی یک رقمی میلی‌ثانیه‌ای را به جستارهای برداری ارائه دهد.

۱۲٫ ترکیب Neptune Analytics، اکنون در GA: سیواسوبرامانیان افزود که مشتریان به دنبال راه هایی برای استفاده از تجزیه و تحلیل گراف برای تجزیه و تحلیل داده های به هم پیوسته هستند و بنابراین آمازون جستجوی برداری را با توانایی انجام تجزیه و تحلیل گراف ترکیب می کند تا روابط پنهان بیشتری را بین داده ها آشکار کند – که می تواند LLM ها را حتی قدرتمندتر کند. Neptune Analytics یک موتور تحلیلی برای پایگاه داده گراف نپتون آمازون است و به دانشمندان داده اجازه می دهد تا بینش هایی را در مورد داده های گراف نپتون آمازون یا دریاچه های داده خود در S3 تا “۸۰ برابر” سریعتر از گذشته بیابند. داده های نمودار و برداری را با هم ذخیره می کند. سیواسوبرامانیان مثالی از اسنپ زد، شرکتی که از نپتون آنالیتیکس برای یافتن میلیاردها اتصال در میان ۵۰ میلیون کاربر فعال خود در «فقط چند ثانیه» استفاده می‌کند.

۱۳٫ اجازه دادن به اشخاص ثالث برای انجام یادگیری ماشینی روی داده های اتاق تمیز شما (حالت پیش نمایش): آمازون توانایی مشتریان را برای به اشتراک گذاشتن داده های خود با اشخاص ثالث در اتاق های به اصطلاح تمیز اعلام کرد و سپس به آنها اجازه داد تا مدل های یادگیری ماشینی (ML) را روی داده ها اجرا کنند تا بینش های پیش بینی کنند. این سرویس AWS Clean Rooms ML نام دارد. سیواسوبرامانیان گفت که در حالی که مدل‌سازی اولیه ML در حال حاضر در دسترس است، مراقبت‌های بهداشتی تخصصی و مدل‌های دیگر در «ماه‌های آینده» در دسترس خواهند بود.

۱۴٫ آمازون Q برای SQL مولد در آمازون Redshift. آمازون Q است دستیار مجهز به هوش مصنوعی که برای یک تجارت خاص طراحی شده استو نقطه برجسته اطلاعیه های دیروز AWS بود. آمازون امروز اعلام کرد که Q می تواند از SQL، زبان برنامه نویسی اصلی که توسط مشتریان برای پرس و جو فایل ها به صورت روزانه استفاده می شود، پشتیبانی کند. گاهی اوقات این پرسش‌های SQL می‌توانند پیچیده باشند، اما اکنون کاربران می‌توانند از Q برای تبدیل درخواست‌های زبان طبیعی به توصیه‌های سفارشی‌سازی شده برای پرس‌و‌جوها استفاده کنند، که می‌تواند برای تجزیه و تحلیل پتابایت داده‌های بدون ساختار در Redshift lakehouse آمازون استفاده شود. در پیش نمایش موجود است. همچنین به زودی می توانید از Q برای ایجاد خطوط لوله یکپارچه سازی داده ها با استفاده از زبان طبیعی استفاده کنید (چیزی که AWS آن را Amazon Glue می نامد).

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.


منبع: https://venturebeat.com/ai/amazon-awss-barrage-of-gen-ai-announcements-aim-to-outdo-microsoft/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *