آیا آماده اید تا آگاهی بیشتری را به برند خود بیاورید؟ در نظر بگیرید که برای تور AI Impact Tour اسپانسر شوید. درباره فرصت ها بیشتر بدانید اینجا.
غول محاسبات ابری Amazon Web Services (AWS)، تا همین اواخر بوده است به عنوان بازی با رقبای خود تلقی می شود Microsoft Azure و Google Cloud در زمینه نوظهور هوش مصنوعی مولد.
اما در طول دو روز گذشته در آن کنفرانس AWS Re:Inventآمازون با اعلام مجموعهای از اعلانها که نشان میدهد میخواهد در حمایت از شرکتهای سازمانی که پروژههای هوش مصنوعی مولد میکنند، باشد، دستکشهای خود را در برابر رقبای خود، بهویژه مایکروسافت از دست داده است.
امروز، سوامی سیواسوبرامانیان، معاون داده و هوش مصنوعی AWS، طی سخنرانی اصلی خود، به دنبال بسیاری از موارد، یک سری اعلامیه را ارائه کرد. دیروز توسط مدیر عامل AWS آدام سلیپسکی ساخته شد. آنهایی که بزرگ دیروز شامل دستیار آمازون Qبرای رقابت با خلبان مایکروسافت و ارائه انواع کمک به کارمندان سازمانی برای کارشان.
یکی از راههایی که آمازون به دنبال متمایز کردن خود است، ارائه انتخاب به مشتریان است. دیروز سلیپسکی به مایکروسافت اشاره کرد و گفت که به یک شرکت LLM (OpenAI) وابسته است، در حالی که آمازون قصد دارد دسترسی به بسیاری از ارائه دهندگان را ارائه دهد. AWS این کار را از طریق سرویس Bedrock خود انجام می دهد که از بسیاری از مدل های پیشرو LLM از جمله Claude، AI21، Cohere و مدل های خود پشتیبانی می کند. و سیواسوبرامانیان چندین اعلان کرد که قابلیت های Bedrock را بهبود می بخشد، که من به آنها خواهم رسید.
استراتژی دیگر، از بین بردن سیلوهای بین پایگاههای داده مختلف است، به طوری که مشتریان سازمانی بتوانند راحتتر از دادههای اختصاصی خود در هنگام استفاده از LLM استفاده کنند – و AWS نشان داد که به شدت میخواهد در آنجا با مایکروسافت برسد. مایکروسافت با پیشبرد ارائه Fabric خود به خوبی عمل کرده است تا نیاز به انتقال داده های پرهزینه و وقت گیر بین پایگاه های داده را برطرف کند.
با در نظر گرفتن همه اینها، در اینجا اعلامیه های اصلی هوش مصنوعی ژنرال امروز آمده است:
۱٫ انتخاب بیشتر LLM، به خصوص از طریق مدل کلود ۲٫۱ آنتروپیک: از طریق Bedrock، آمازون AWS دارد در حال حاضر دسترسی مشتریان سازمانی به مدل ها را فراهم کرده است مانند مدل پایه از پیش آموزش دیده خود، Titan، و همچنین مدل های پایه از اشخاص ثالث، مانند Jurassic AI21، Anthropic’s Claude، Meta’s Llama 2 و Stable Diffusion.
همانطور که انتظار می رفت، Sivasubramanian بعداً پشتیبانی مدل بیشتری از شریک آمازون، Anthropic را اعلام کرد سرمایه گذاری قابل توجه آمازون در آن شرکت در سپتامبر. او در مورد حمایت Bedrocks از مدلهای کلود آنتروپیک که برای کارهایی مانند خلاصهسازی و استدلال پیچیده قوی هستند، صحبت کرد. او از پشتیبانی از کلود ۲٫۱، مدل خبر داد Anthropic دو هفته پیش منتشر شد، که دارای پنجره زمینه ۲۰۰K توکن پیشرو در صنعت است، دقت بهبود یافته و نصف تعداد توهم نسبت به مدل قبلی خود. AWS اولین ارائهدهنده ابری است که از Claude 2 پشتیبانی میکند. او همچنین اعلام کرد Bedrocks از Llama 2، ۷۰B متا، یک مدل منبع باز پشتیبانی میکند – که پشتیبانی مداوم AWS از منبع باز را نشان میدهد.
۲٫ پشتیبانی از تعبیههای برداری چند وجهی: embeddings برداری فناوری است که متن و فایل های دیگر را به نمایش های عددی به نام بردار ترجمه می کند. این بردارها به مدلها اجازه میدهند تا روابط بین کلمات مشابه را راحتتر درک کنند، به عنوان مثال که “گربه” از نظر معنایی به “گربه” نزدیک است. آنها به مدلها اجازه میدهند تا پاسخهای مرتبطتری را به کاربرانی که به دنبال چیزها هستند، تولید کنند. آمازون قبلاً تعبیههای Titan Text را برای این کار اعلام کرده بود و از آن به صورت داخلی برای توصیههای محصول خود در آمازون استفاده کرده بود – اما فقط روی متن کار میکرد.
اما سیواسوبرامانیان گفت که شرکتها خواستار قابلیتهای جستجوی چند وجهی هستند، برای مثال یک فروشگاه مبلمان ممکن است بخواهد به مشتریان خود اجازه دهد با استفاده از تصویر چیزی که به دنبال آن هستند، مبل را جستجو کنند، و جستجوی چند وجهی میتواند به آن فروشگاه مبلمان اجازه دهد. برای ارائه نزدیکترین مبل از پایگاه داده هزاران تصویر. آنها می توانند بپرسند “به من نشان بده چه چیزی با مبل من خوب کار می کند.”
بنابراین Sivasubramanian امروز در دسترس بودن کلی Titan Multi-Model Embeddings را اعلام کرد، که ارائه گزینههای جستجو و توصیه چندوجهی را در LLMها آسانتر میکند.
۳٫ مدل های تولید متن Titan TextLite و Titan TextExpress اکنون به طور کلی در دسترس هستند: TextLite یک مدل سبک وزن است که برای خلاصه کردن متن در چت باتها و کپینویسی و تنظیم دقیق خوب است و Titan TextExpress برای تولید متن باز و چت مکالمه خوب است.
۴٫ مولد تصویر تیتاندر حالت پیش نمایش موجود است، برای امنیت، واترمارک های نامرئی تولید می کند (داستان کامل و جداگانه ما را در این مورد ببینید): این مدل مشتریان را قادر می سازد تا تصاویر واقعی با کیفیت بالا را برای بهبود تصاویر موجود با استفاده از اعلان های زبان ساده تولید کنند. کاربران می توانند تصاویر را با استفاده از داده های خود سفارشی کنند تا محتوایی ایجاد کنند که نشان دهنده برند آنها باشد. سیواسوبرامانیان گفت که این بر روی مجموعه متنوعی از داده ها آموزش داده شده است تا خروجی های دقیق را فراهم کند و همچنین برای کاهش سمیت و سوگیری ساخته شده است.
او گفت که آزمایشهایی که با ارزیابهای انسانی انجام شده است، به مدل امتیاز بیشتری نسبت به مدلهای رقیب میدهد. همچنین، تمام تصاویر تولید شده با این مدل به طور پیشفرض دارای یک واترمارک نامرئی هستند که “برای کمک به جلوگیری از انتشار اطلاعات نادرست… و مقاوم در برابر دستکاری” طراحی شده است. او گفت Titan Image Generator اولین محصول موجود در بازار با چنین واترمارکی است.
سیواسوبرامانیان در طول سخنرانی خود از نمونه تصویر یک ایگوانا برای نشان دادن ویژگی های ویرایش مدل استفاده کرد. یکی از ویژگیها به نام «خارجسازی» به کاربر اجازه میدهد پسزمینه یک تصویر را جایگزین کند و در این مورد Sivasubramanian پسزمینه ساده را با تصویر یک جنگل بارانی جایگزین کرد. او همچنین نشان داد که چگونه میتواند موضوع اصلی، در این مورد خود ایگوانا را تغییر دهد، و چگونه میتوان از زبان طبیعی برای گفتن، تغییر جهتی که ایگوانا با آن روبروست، استفاده کرد.
۵٫ آسانتر کردن تولید تقویتشده بازیابی (RAG).: شرکت ها از RAG استفاده می کنند تا به LLM ها اجازه دهند تا در فروشگاه های داده اختصاصی خود جستجو کنند، اما RAG می تواند پیچیده باشد. مهندسان باید دادهها را به جاسازیهای برداری تبدیل کنند، آنها را در پایگاههای داده برداری ذخیره کنند، و ممکن است هفتهها یا ماهها طول بکشد. آمازون دیروز KnowledgeBase را برای Amazon Bedrock معرفی کرد تا این کار را آسانتر کند – به کاربران سازمانی اجازه میدهد به سادگی LLM را به مکان دادههای خود مانند یک سطل S3 نشان دهند. به این ترتیب، AWS Bedrock متن یا اسناد مربوطه را واکشی می کند و تمام تبدیل های برداری را به صورت خودکار انجام می دهد. با پایگاه دادههای برداری محبوب، مانند Vector Engine، Redis Enterprise Cloud و Pinecone کار میکند. و امروز، آمازون اعلام کرد که پشتیبانی از Amazon Aurora، MongoDB و پایگاههای اطلاعاتی دیگر “به زودی” ارائه خواهد شد.
۶٫ ارزیابی مدل در آمازون بستر در پیش نمایش: این روشی است که شرکت ها می توانند بهترین مدل پایه را برای موارد استفاده خود ارزیابی، مقایسه و انتخاب کنند.
۷٫ یک برنامه «عامل» خودتان به نام RAG DIY: عوامل هوش مصنوعی مولد اخیراً محبوب شده اند زیرا می توانند تا حدودی مستقل عمل کنند. Agents برنامههای کاربردی هوش مصنوعی هستند که وظایف پیچیدهای را با فراخوانی پویا APIهای مختلف انجام میدهند و آمازون این را با Agents for Amazon که دیروز به طور کلی در دسترس قرار گرفت، پشتیبانی کرده است.
امروز صبح، Sivasubramanian یک عامل فرضی به نام RAG DIY را به نمایش گذاشت تا نشان دهد که عوامل چه کاری می توانند انجام دهند. دستیار RAG DIY مجهز به LLM، بر اساس Claude 2 در Bedrock، به افراد اجازه می دهد تا با استفاده از سوالات زبان طبیعی پروژه های خانگی و دیگر پروژه ها را انجام دهند. سوامی زنی را مثال زد که می خواهد روشویی حمام خود را عوض کند. او می تواند در مورد هر نوع محصولی از دستیار سوال کند و لیستی از مراحل، مواد و ابزار دقیق را به همراه مجوزهای لازم دریافت کند. دستیار از ورودی های کاربر برای تولید تصاویر پروژه با فراخوانی مولد تصویر Titan آمازون استفاده می کند. برنامه RAP DIY از جاسازی های مدل چند وجهی برای جستجوی موجودی گسترده خود و بازیابی همه محصولاتی که برای پروژه خود نیاز دارد استفاده می کند. دستیار می تواند خلاصه ای از نظرات کاربران را برای هر محصولی با تماس با مدل Cohere’s Command که برای کارهای خلاصه تخصصی است، به او ارائه دهد.
۸٫ Gen AI Innovation Center برای کمک به شرکت ها در ساخت مدل های سفارشیAWS مرکز نوآوری را در اوایل سال جاری اعلام کرد، به عنوان راهی برای ارائه کمک های تخصصی به شرکت های سازمانی برای ساخت مدل های پایه، از جمله تخصص علم داده و استراتژی. AWS اعلام کرد که از سال آینده پشتیبانی سفارشی برای ساخت مدلهای کلود Anthropic ارائه میکند، از جمله ارائه تیمی از متخصصان برای کمک به سفارشیسازی مدلها با تنظیم دقیق با استفاده از دادههای خود.
۹٫ Sagemaker Hyperpod برای آموزش مدل به GA حرکت می کند: شرکت ها به طور فزاینده ای متوجه می شوند که فرآیند آموزش مدل های پایه می تواند بسیار چالش برانگیز باشد. این نیاز به حجم عظیمی از داده ها و ایجاد و نگهداری خوشه های گران قیمت از هزاران شتاب دهنده هوش مصنوعی، نوشتن کد برای توزیع آموزش مدل در میان خوشه ها دارد. Hyperpod می تواند همه این کارها را برای شما انجام دهد، به لطف اطلاعیه های اخیر آمازون با Nvidia برای دسترسی ایمن به جدیدترین کلاسترهای GPU. AWS گفت Hyperpod می تواند زمان آموزش مدل را تا ۴۰ درصد کاهش دهد. AWS همچنین تعدادی دیگر از ویژگیهای Sagemaker را در زمینههای استنتاج، آموزش و MLO اعلام کرد.
۱۰٫ یکپارچگی قابل توجه پایگاه داده، از جمله پشتیبانی برداری. آمازون گستردهترین مجموعه پایگاههای اطلاعاتی ابری را برای شرکتهای سازمانی که دادهها را مدیریت میکنند ارائه میکند، اما این پایگاههای داده در حالت ذخیره باقی ماندهاند، و دسترسی شرکتهای سازمانی به آسانی با LLM را دشوارتر میکند. آمازون این پیام را دریافت کرده است و با انتقام گیری برای شکستن این سیلوها کار می کند که توسط مایکروسافت تحریک شده است. ابتکار فابریک خود را تبلیغ می کند، که برخی از تحلیلگران می گویند به آن برتری نسبت به آمازون داده است. آمازون شروع به سرمایه گذاری در این چشم انداز به اصطلاح صفر ETL کرده است که شروع به اجرای آن کرده است سال گذشته با ادغام برخی از پایگاه های داده خود مانند Aurora و Redshift.
امروز، AWS ادغام آمازون OpenSeach و Amazon S3 را اعلام کرد که به کاربران اجازه میدهد تمام دادههای گزارش خود را در یک مکان واحد بدون ایجاد خطوط لوله ETL تجزیه و تحلیل و تجسم کنند. این امر پس از آن صورت میگیرد که آمازون دیروز یکپارچگی صفر-ETL بین پایگاه داده Redshift lakehouse خود و پایگاههای داده محبوب Aurora Postgres، Dynamo DB، و Redis MySQL و همچنین بین DynamoDB و OpenSearch را اعلام کرد.
اما تمایل سازمانی برای یکپارچه سازی همچنین شامل اجازه دادن به داده های برداری برای ذخیره و پرس و جو در پایگاه داده های متعدد است. اخیراً آمازون اضافه کرده است پشتیبانی جستجوی برداری از Aurora MySQL آمازون، یک پایگاه داده رابطهای مبتنی بر ابر. و در ماه جولای آمازون یک قابلیت پایگاه داده برداری، Vector Engine را راه اندازی کرد، برای محصول OpenSearch Serverless خود، در حالت پیش نمایش. امروز، این به در دسترس بودن عمومی منتقل شد.
همچنین امروز، AWS اعلام کرد که DocumentDB و DynamoDB، دو پایگاه داده محبوبتر آن، با جستجوی برداری پشتیبانی میشوند و مشتریان DocumentDB میتوانند دادههای منبع و دادههای برداری خود را با هم در یک پایگاه داده ذخیره کنند.
۱۱٫ جستجوی برداری موجود برای DB درون حافظه برای Redis (حالت پیش نمایش). سیواسوبرامانیان نیاز شرکت های بزرگ متمرکز بر امنیت مانند بانک ها را برای استفاده از جستجوی برداری “فوق العاده سریع” برای موارد استفاده مانند کشف تقلب یا چت ربات های بلادرنگ برجسته کرد. او گفت که DB for Redis اکنون میتواند میلیونها بردار را ذخیره کند و زمان پاسخدهی یک رقمی میلیثانیهای را به جستارهای برداری ارائه دهد.
۱۲٫ ترکیب Neptune Analytics، اکنون در GA: سیواسوبرامانیان افزود که مشتریان به دنبال راه هایی برای استفاده از تجزیه و تحلیل گراف برای تجزیه و تحلیل داده های به هم پیوسته هستند و بنابراین آمازون جستجوی برداری را با توانایی انجام تجزیه و تحلیل گراف ترکیب می کند تا روابط پنهان بیشتری را بین داده ها آشکار کند – که می تواند LLM ها را حتی قدرتمندتر کند. Neptune Analytics یک موتور تحلیلی برای پایگاه داده گراف نپتون آمازون است و به دانشمندان داده اجازه می دهد تا بینش هایی را در مورد داده های گراف نپتون آمازون یا دریاچه های داده خود در S3 تا “۸۰ برابر” سریعتر از گذشته بیابند. داده های نمودار و برداری را با هم ذخیره می کند. سیواسوبرامانیان مثالی از اسنپ زد، شرکتی که از نپتون آنالیتیکس برای یافتن میلیاردها اتصال در میان ۵۰ میلیون کاربر فعال خود در «فقط چند ثانیه» استفاده میکند.
۱۳٫ اجازه دادن به اشخاص ثالث برای انجام یادگیری ماشینی روی داده های اتاق تمیز شما (حالت پیش نمایش): آمازون توانایی مشتریان را برای به اشتراک گذاشتن داده های خود با اشخاص ثالث در اتاق های به اصطلاح تمیز اعلام کرد و سپس به آنها اجازه داد تا مدل های یادگیری ماشینی (ML) را روی داده ها اجرا کنند تا بینش های پیش بینی کنند. این سرویس AWS Clean Rooms ML نام دارد. سیواسوبرامانیان گفت که در حالی که مدلسازی اولیه ML در حال حاضر در دسترس است، مراقبتهای بهداشتی تخصصی و مدلهای دیگر در «ماههای آینده» در دسترس خواهند بود.
۱۴٫ آمازون Q برای SQL مولد در آمازون Redshift. آمازون Q است دستیار مجهز به هوش مصنوعی که برای یک تجارت خاص طراحی شده استو نقطه برجسته اطلاعیه های دیروز AWS بود. آمازون امروز اعلام کرد که Q می تواند از SQL، زبان برنامه نویسی اصلی که توسط مشتریان برای پرس و جو فایل ها به صورت روزانه استفاده می شود، پشتیبانی کند. گاهی اوقات این پرسشهای SQL میتوانند پیچیده باشند، اما اکنون کاربران میتوانند از Q برای تبدیل درخواستهای زبان طبیعی به توصیههای سفارشیسازی شده برای پرسوجوها استفاده کنند، که میتواند برای تجزیه و تحلیل پتابایت دادههای بدون ساختار در Redshift lakehouse آمازون استفاده شود. در پیش نمایش موجود است. همچنین به زودی می توانید از Q برای ایجاد خطوط لوله یکپارچه سازی داده ها با استفاده از زبان طبیعی استفاده کنید (چیزی که AWS آن را Amazon Glue می نامد).
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.
منبع: https://venturebeat.com/ai/amazon-awss-barrage-of-gen-ai-announcements-aim-to-outdo-microsoft/