VentureBeat ارائه می دهد: AI Unleashed – یک رویداد اجرایی انحصاری برای رهبران داده های سازمانی. شبکه و یادگیری با همتایان صنعت. بیشتر بدانید
استارتاپ هوش مصنوعی مستقر در تورنتو منسجم Embed V3 را راهاندازی کرده است، آخرین تکرار مدل تعبیهشده خود، که برای جستجوی معنایی و برنامههای کاربردی با استفاده از مدلهای زبان بزرگ (LLM) طراحی شده است.
مدلهای جاسازی، که دادهها را به نمایشهای عددی تبدیل میکنند، که به آنها «جاسازیها» نیز گفته میشود، به دلیل ظهور LLM و موارد استفاده بالقوه آنها برای برنامههای کاربردی سازمانی، توجه قابل توجهی را به خود جلب کردهاند.
Embed V3 با آن رقابت می کند آدای OpenAI و گزینه های مختلف منبع باز، نویدبخش عملکرد برتر و فشرده سازی داده ها افزایش یافته است. هدف این پیشرفت کاهش هزینه های عملیاتی برنامه های کاربردی LLM سازمانی است.
جاسازی و RAG
تعبیهها نقشی محوری در وظایف مختلف، از جمله بازیابی تولید افزوده (RAG)، یک کاربرد کلیدی از مدلهای زبان بزرگ در بخش سازمانی دارند.
RAG به توسعه دهندگان این امکان را می دهد که با بازیابی اطلاعات از منابعی مانند کتابچه راهنمای کاربر، تاریخچه ایمیل و چت، مقالات یا سایر اسنادی که بخشی از داده های آموزشی اصلی مدل نیستند، زمینه را برای LLM ها در زمان اجرا فراهم کنند.
برای اجرای RAG، شرکت ها ابتدا باید اسناد خود را جاسازی کرده و در یک پایگاه داده برداری ذخیره کنند. هر بار که کاربر مدل را پرس و جو می کند، سیستم هوش مصنوعی تعبیه درخواست را محاسبه می کند و آن را با جاسازی های ذخیره شده در پایگاه داده برداری مقایسه می کند. سپس اسنادی را بازیابی میکند که بیشتر شبیه به درخواست است و محتوای این اسناد را به زبان درخواستی کاربر اضافه میکند و زمینه لازم را برای LLM فراهم میکند.
حل چالش های جدید برای هوش مصنوعی سازمانی
RAG می تواند به حل برخی از چالش های LLM کمک کند، از جمله عدم دسترسی به اطلاعات به روز و تولید اطلاعات نادرست، که گاهی اوقات به عنوان “توهم” شناخته می شود.
با این حال، مانند سایر سیستمهای جستجو، چالش مهم RAG یافتن اسنادی است که بیشترین ارتباط را با درخواست کاربر دارند.
مدلهای جاسازی قبلی با مجموعه دادههای پر سر و صدایی دست و پنجه نرم میکردند، جایی که برخی از اسناد ممکن است به درستی خزیده نشده باشند یا حاوی اطلاعات مفیدی نباشند. به عنوان مثال، اگر کاربر «علائم کووید-۱۹» را پرس و جو کند، مدلهای قدیمیتر ممکن است یک سند کمتر آموزنده را به دلیل اینکه عبارت «کووید-۱۹ علائم زیادی دارد» را در بر میگیرد، بالاتر رتبهبندی کنند.
از سوی دیگر، Cohere’s Embed V3، با ارائه اطلاعات معنایی دقیق تر در مورد محتوای سند، عملکرد برتر را در تطبیق اسناد با پرس و جوها نشان می دهد.
در مثال «علائم COVID-19»، Embed V3 سندی را که در مورد علائم خاصی مانند «درجه حرارت بالا»، «سرفه مداوم»، یا «از دست دادن بویایی یا چشایی» صحبت میکند، بالاتر از سندی که صرفاً بیان میکند COVID-19 است، رتبهبندی میکند. علائم زیادی دارد
به گفته کوهر، Embed V3 در معیارهای استانداردی که برای ارزیابی عملکرد مدلهای تعبیهشده استفاده میشود، از سایر مدلها، از جمله ada-002 OpenAI بهتر عمل میکند.
Embed V3 در اندازههای جاسازی مختلف موجود است و شامل یک نسخه چند زبانه است که قادر به تطبیق پرسوجوها با اسناد در سراسر زبان است. به عنوان مثال، می تواند اسناد فرانسوی را که با یک جستار انگلیسی مطابقت دارند پیدا کند. علاوه بر این، Embed V3 را می توان برای برنامه های مختلف مانند جستجو، طبقه بندی و خوشه بندی پیکربندی کرد.
RAG پیشرفته
به گفته Cohere، Embed V3 عملکرد برتر را در موارد استفاده پیشرفته، از جمله پرس و جوهای RAG چند جهشی نشان داده است. هنگامی که درخواست کاربر حاوی چندین پرس و جو باشد، مدل باید این پرس و جوها را به طور جداگانه شناسایی کند و اسناد مربوطه را برای هر یک از آنها بازیابی کند.
این معمولاً نیازمند چندین مرحله تجزیه و بازیابی است. قابلیت Embed V3 برای ارائه نتایج با کیفیت بالاتر در ۱۰ سند برتر بازیابی شده، نیاز به ایجاد پرس و جوهای متعدد در پایگاه داده برداری را کاهش می دهد.
Embed V3 همچنین رتبه بندی مجدد را بهبود می بخشد، ویژگی که Cohere چند ماه پیش به API خود اضافه کرد. رتبه بندی مجدد به اپلیکیشن های جستجو اجازه می دهد تا نتایج جستجوی موجود را بر اساس شباهت های معنایی مرتب کنند.
یکی از سخنگویان Cohere به VentureBeat گفت: «رتبهبندی مجدد بهویژه برای پرسشها و اسنادی که جنبههای مختلف را بررسی میکنند، قوی است، چیزی که مدلهای جاسازی شده به دلیل طراحیشان با آن مشکل دارند.» “با این حال، Rerank مستلزم آن است که مجموعه اولیه اسناد به عنوان ورودی ارسال شود. بسیار مهم است که مرتبط ترین اسناد بخشی از این لیست برتر باشند. یک مدل جاسازی بهتر مانند Embed V3 تضمین می کند که هیچ سند مرتبطی در این لیست کوتاه از دست نمی رود.”
علاوه بر این، Embed V3 می تواند به کاهش هزینه های اجرای پایگاه داده های برداری کمک کند. مدل تحت یک فرآیند آموزشی سه مرحلهای، از جمله یک روش آموزشی ویژه با آگاهی از فشردهسازی قرار گرفت. این سخنگو گفت: “یک عامل هزینه اصلی، که اغلب ۱۰×۱۰۰ برابر بیشتر از محاسبه جاسازی ها است، هزینه برای پایگاه داده برداری است.” “در اینجا، ما آموزش فشرده سازی ویژه ای را انجام دادیم که مدل ها را برای فشرده سازی برداری مناسب می کند.”
طبق وبلاگ کوهر، این مرحله فشرده سازی تضمین می کند که مدل ها با روش های فشرده سازی برداری به خوبی کار می کنند. این سازگاری به طور قابل توجهی هزینه های پایگاه داده برداری را کاهش می دهد، به طور بالقوه توسط چندین عامل، در حالی که تا ۹۹٫۹۹٪ کیفیت جستجو را حفظ می کند.
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.
منبع: https://venturebeat.com/ai/cohere-launches-embed-v3-for-enterprise-llm-applications/