Cohere Embed V3 را برای برنامه های کاربردی LLM سازمانی راه اندازی کرد

VentureBeat ارائه می دهد: AI Unleashed – یک رویداد اجرایی انحصاری برای رهبران داده های سازمانی. شبکه و یادگیری با همتایان صنعت. بیشتر بدانید


استارتاپ هوش مصنوعی مستقر در تورنتو منسجم Embed V3 را راه‌اندازی کرده است، آخرین تکرار مدل تعبیه‌شده خود، که برای جستجوی معنایی و برنامه‌های کاربردی با استفاده از مدل‌های زبان بزرگ (LLM) طراحی شده است.

مدل‌های جاسازی، که داده‌ها را به نمایش‌های عددی تبدیل می‌کنند، که به آنها «جاسازی‌ها» نیز گفته می‌شود، به دلیل ظهور LLM و موارد استفاده بالقوه آنها برای برنامه‌های کاربردی سازمانی، توجه قابل توجهی را به خود جلب کرده‌اند.

Embed V3 با آن رقابت می کند آدای OpenAI و گزینه های مختلف منبع باز، نویدبخش عملکرد برتر و فشرده سازی داده ها افزایش یافته است. هدف این پیشرفت کاهش هزینه های عملیاتی برنامه های کاربردی LLM سازمانی است.

جاسازی و RAG

تعبیه‌ها نقشی محوری در وظایف مختلف، از جمله بازیابی تولید افزوده (RAG)، یک کاربرد کلیدی از مدل‌های زبان بزرگ در بخش سازمانی دارند.

رویداد

هوش مصنوعی آزاد شد

یک شب انحصاری فقط دعوت از بینش و شبکه، که برای مدیران ارشد سازمانی که بر پشته‌های داده و استراتژی‌ها نظارت دارند، طراحی شده است.

بیشتر بدانید

RAG به توسعه دهندگان این امکان را می دهد که با بازیابی اطلاعات از منابعی مانند کتابچه راهنمای کاربر، تاریخچه ایمیل و چت، مقالات یا سایر اسنادی که بخشی از داده های آموزشی اصلی مدل نیستند، زمینه را برای LLM ها در زمان اجرا فراهم کنند.

برای اجرای RAG، شرکت ها ابتدا باید اسناد خود را جاسازی کرده و در یک پایگاه داده برداری ذخیره کنند. هر بار که کاربر مدل را پرس و جو می کند، سیستم هوش مصنوعی تعبیه درخواست را محاسبه می کند و آن را با جاسازی های ذخیره شده در پایگاه داده برداری مقایسه می کند. سپس اسنادی را بازیابی می‌کند که بیشتر شبیه به درخواست است و محتوای این اسناد را به زبان درخواستی کاربر اضافه می‌کند و زمینه لازم را برای LLM فراهم می‌کند.

حل چالش های جدید برای هوش مصنوعی سازمانی

RAG می تواند به حل برخی از چالش های LLM کمک کند، از جمله عدم دسترسی به اطلاعات به روز و تولید اطلاعات نادرست، که گاهی اوقات به عنوان “توهم” شناخته می شود.

با این حال، مانند سایر سیستم‌های جستجو، چالش مهم RAG یافتن اسنادی است که بیشترین ارتباط را با درخواست کاربر دارند.

مدل‌های جاسازی قبلی با مجموعه داده‌های پر سر و صدایی دست و پنجه نرم می‌کردند، جایی که برخی از اسناد ممکن است به درستی خزیده نشده باشند یا حاوی اطلاعات مفیدی نباشند. به عنوان مثال، اگر کاربر «علائم کووید-۱۹» را پرس و جو کند، مدل‌های قدیمی‌تر ممکن است یک سند کمتر آموزنده را به دلیل اینکه عبارت «کووید-۱۹ علائم زیادی دارد» را در بر می‌گیرد، بالاتر رتبه‌بندی کنند.

از سوی دیگر، Cohere’s Embed V3، با ارائه اطلاعات معنایی دقیق تر در مورد محتوای سند، عملکرد برتر را در تطبیق اسناد با پرس و جوها نشان می دهد.

در مثال «علائم COVID-19»، Embed V3 سندی را که در مورد علائم خاصی مانند «درجه حرارت بالا»، «سرفه مداوم»، یا «از دست دادن بویایی یا چشایی» صحبت می‌کند، بالاتر از سندی که صرفاً بیان می‌کند COVID-19 است، رتبه‌بندی می‌کند. علائم زیادی دارد

به گفته کوهر، Embed V3 در معیارهای استانداردی که برای ارزیابی عملکرد مدل‌های تعبیه‌شده استفاده می‌شود، از سایر مدل‌ها، از جمله ada-002 OpenAI بهتر عمل می‌کند.

Embed V3 در اندازه‌های جاسازی مختلف موجود است و شامل یک نسخه چند زبانه است که قادر به تطبیق پرس‌و‌جوها با اسناد در سراسر زبان است. به عنوان مثال، می تواند اسناد فرانسوی را که با یک جستار انگلیسی مطابقت دارند پیدا کند. علاوه بر این، Embed V3 را می توان برای برنامه های مختلف مانند جستجو، طبقه بندی و خوشه بندی پیکربندی کرد.

RAG پیشرفته

به گفته Cohere، Embed V3 عملکرد برتر را در موارد استفاده پیشرفته، از جمله پرس و جوهای RAG چند جهشی نشان داده است. هنگامی که درخواست کاربر حاوی چندین پرس و جو باشد، مدل باید این پرس و جوها را به طور جداگانه شناسایی کند و اسناد مربوطه را برای هر یک از آنها بازیابی کند.

این معمولاً نیازمند چندین مرحله تجزیه و بازیابی است. قابلیت Embed V3 برای ارائه نتایج با کیفیت بالاتر در ۱۰ سند برتر بازیابی شده، نیاز به ایجاد پرس و جوهای متعدد در پایگاه داده برداری را کاهش می دهد.

Embed V3 همچنین رتبه بندی مجدد را بهبود می بخشد، ویژگی که Cohere چند ماه پیش به API خود اضافه کرد. رتبه بندی مجدد به اپلیکیشن های جستجو اجازه می دهد تا نتایج جستجوی موجود را بر اساس شباهت های معنایی مرتب کنند.

یکی از سخنگویان Cohere به VentureBeat گفت: «رتبه‌بندی مجدد به‌ویژه برای پرسش‌ها و اسنادی که جنبه‌های مختلف را بررسی می‌کنند، قوی است، چیزی که مدل‌های جاسازی شده به دلیل طراحی‌شان با آن مشکل دارند.» “با این حال، Rerank مستلزم آن است که مجموعه اولیه اسناد به عنوان ورودی ارسال شود. بسیار مهم است که مرتبط ترین اسناد بخشی از این لیست برتر باشند. یک مدل جاسازی بهتر مانند Embed V3 تضمین می کند که هیچ سند مرتبطی در این لیست کوتاه از دست نمی رود.”

علاوه بر این، Embed V3 می تواند به کاهش هزینه های اجرای پایگاه داده های برداری کمک کند. مدل تحت یک فرآیند آموزشی سه مرحله‌ای، از جمله یک روش آموزشی ویژه با آگاهی از فشرده‌سازی قرار گرفت. این سخنگو گفت: “یک عامل هزینه اصلی، که اغلب ۱۰×۱۰۰ برابر بیشتر از محاسبه جاسازی ها است، هزینه برای پایگاه داده برداری است.” “در اینجا، ما آموزش فشرده سازی ویژه ای را انجام دادیم که مدل ها را برای فشرده سازی برداری مناسب می کند.”

طبق وبلاگ کوهر، این مرحله فشرده سازی تضمین می کند که مدل ها با روش های فشرده سازی برداری به خوبی کار می کنند. این سازگاری به طور قابل توجهی هزینه های پایگاه داده برداری را کاهش می دهد، به طور بالقوه توسط چندین عامل، در حالی که تا ۹۹٫۹۹٪ کیفیت جستجو را حفظ می کند.

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.


منبع: https://venturebeat.com/ai/cohere-launches-embed-v3-for-enterprise-llm-applications/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *