VentureBeat ارائه می دهد: AI Unleashed – یک رویداد اجرایی انحصاری برای رهبران داده های سازمانی. شبکه و یادگیری با همتایان صنعت. بیشتر بدانید
منبع باز مدل زبان بزرگ لاما ۲ (LLM) توسعه یافته توسط متا، به لطف فناوری Dell، استقبال گسترده ای از شرکت ها دریافت می کند.
Dell امروز اعلام کرد که پشتیبانی از مدل های Llama 2 را به خط تولید خود اضافه می کند طراحی معتبر Dell برای سخت افزار هوش مصنوعی مولدو همچنین راه حل های مولد هوش مصنوعی آن برای استقرار در محل.
آوردن Llama 2 به شرکت
Llama 2 در ابتدا منتشر شد توسط متا در ماه جولای و مدلها توسط چندین ارائهدهنده ابر از جمله Microsoft Azure، Amazon Web Services و Google Cloud پشتیبانی شدهاند.
مشارکت Dell از این جهت متفاوت است که LLM منبع باز را به استقرار داخلی می آورد.
Dell نه تنها اکنون از Llama 2 برای کاربران سازمانی خود پشتیبانی می کند، بلکه از Llama 2 برای موارد استفاده خود نیز استفاده می کند.
برای Meta، مشارکت Dell فرصتهای بیشتری برای یادگیری نحوه استفاده شرکتها از Llama فراهم میکند، که به گسترش بیشتر قابلیتهای یک مجموعه کامل از عملکرد Llama در طول زمان کمک میکند.
برای مت بیکر، معاون ارشد استراتژی هوش مصنوعی در دل، افزودن پشتیبانی از Llama 2 به شرکت او کمک می کند تا به چشم انداز خود در آوردن هوش مصنوعی به داده های سازمانی دست یابد.
بیکر به VentureBeat گفت: «اکثریت قریب به اتفاق دادهها در محل زندگی میکنند و ما اکنون این مدل دسترسی باز را داریم تا در محل به دادههای شما بیاوریم. “با سطح پیچیدگی که خانواده Llama 2 تا ۷۰ میلیارد پارامتر دارد، اکنون می توانید آن را در محل هایی که دقیقاً در کنار داده های خود قرار دارد اجرا کنید و واقعاً برنامه های فوق العاده ای بسازید.”
دل نه تنها از Llama 2 پشتیبانی می کند، بلکه از آن نیز استفاده می کند
دل قبلاً از چارچوب Nvidia NeMo پشتیبانی میکرد تا به سازمانها در ساخت برنامههای هوش مصنوعی مولد کمک کند.
اضافه شدن Llama 2 گزینه دیگری را در اختیار سازمان ها قرار می دهد تا از بین آنها انتخاب کنند. دل به مشتریان سازمانی خود در مورد سخت افزار مورد نیاز برای استقرار Llama 2 و همچنین کمک به سازمان ها در مورد نحوه ساخت برنامه هایی که از منبع باز LLM بهره می برند، راهنمایی می کند.
با رفتن یک قدم فراتر، بیکر همچنین خاطرنشان کرد که Dell از Llama 2 برای اهداف داخلی خود استفاده می کند. او افزود که دل از Llama 2 هم برای استقرار آزمایشی و هم برای استقرار تولید واقعی استفاده می کند. یکی از موارد استفاده اصلی امروزه کمک به پشتیبانی از Retrieval Augmented Generation (RAG) به عنوان بخشی از پایگاه دانش خود دل از مقالات است. Llama 2 به ارائه یک رابط به سبک چت بات کمک می کند تا راحت تر به آن اطلاعات برای دل دسترسی پیدا کنید.
دل از سخت افزار و خدمات حرفه ای خود برای هوش مصنوعی مولد درآمد کسب خواهد کرد، اما بیکر خاطرنشان کرد که دل مستقیماً از Llama 2 که به صورت رایگان به عنوان فناوری منبع باز در دسترس است، درآمدزایی نمی کند.
بیکر گفت: “ما به هیچ وجه از Llama 2 کسب درآمد نمی کنیم، صادقانه بگویم، این فقط چیزی است که ما معتقدیم یک قابلیت واقعا عالی است که در دسترس مشتریان ما است و می خواهیم نحوه مصرف مشتریانمان را ساده کنیم.”
چرا متا به پشتیبانی Dell از Llama 2 خوشبین است؟
به گفته جو اسپیساک، رئیس بخش منبع باز هوش مصنوعی متا، به طور کلی Llama 2 با تقریباً ۳۰ میلیون بارگیری از فناوری منبع باز در ۳۰ روز گذشته یک موفقیت خیره کننده بوده است.
برای متا، Llama 2 فقط یک LLM نیست، بلکه مرکز کل یک پشته هوش مصنوعی مولد است که شامل منبع باز نیز می شود. چارچوب یادگیری ماشین PyTorch که متا ایجاد شد و به توسعه کمک می کند.
اسپیساک به VentureBeat گفت: «ما اساساً در اینجا می بینیم که ما واقعاً مرکز اکوسیستم توسعه دهندگان برای هوش مصنوعی مولد هستیم.
اسپیساک اظهار داشت که پذیرش Llama 2 توسط بازیکنان مختلفی در اکوسیستم هوش مصنوعی انجام می شود. وی خاطرنشان کرد که ارائه دهندگان ابری مانند Google Cloud، Amazon Web Services (AWS) و Microsoft Azure از Llama به عنوان یک پلت فرم برای بهینه سازی معیارهای LLM استفاده می کنند. طبق گفته اسپیساک، فروشندگان سخت افزار نیز شرکای کلیدی هستند و متا با شرکت هایی مانند کوالکام همکاری می کند و لاما را به دستگاه های جدید می آورد.
در حالی که لاما پذیرش را در فضای ابری می بیند، اسپیساک بر اهمیت مشارکت هایی که می توانند لاما را در محل اجرا کنند، با مشارکت متا با Dell به عنوان نمونه بارز، تأکید کرد. با یک LLM باز، اسپیساک گفت که یک سازمان در مورد استقرار گزینه هایی دارد که در مورد حفظ حریم خصوصی داده ها مهم است.
بدیهی است که میتوانید از ابر عمومی استفاده کنید، اما ارزش واقعی در اینجا این است که بتوانید آن را در این محیطها اجرا کنید که به طور سنتی نمیخواهید دادهها را به ابر ارسال کنید، یا میخواهید چیزها را به صورت محلی اجرا کنید. اسپیساک گفت، بسته به حساسیت داده های خصوصی. اینجاست که این مدلهای باز واقعاً میدرخشند، و Llama 2 بهعنوان یک مدل واقعاً توانا به آن نقطهی شیرین برخورد میکند و واقعاً میتواند در هر جایی که میخواهید اجرا شود.»
کار با Dell همچنین به جامعه توسعه Llama کمک میکند تا نیازهای سازمانی را بهتر درک کند و بسازد. اسپیساک گفت که هرچه فناوری Llama بیشتر به کار گرفته شود، موارد استفاده بیشتری وجود داشته باشد، بهتر است توسعه دهندگان Llama یاد بگیرند که در چه مشکلاتی قرار دارند و چگونه در مقیاس بهتر استقرار کنند.
اسپیساک گفت: “این واقعاً ارزش کار با افرادی مانند Dell است، این واقعاً به ما به عنوان یک پلتفرم کمک می کند و امیدواریم به ما در ساختن یک Llama 3 و Llama 4 بهتر و به طور کلی فقط یک اکوسیستم امن تر و بازتر کمک کند.”
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.
منبع: https://venturebeat.com/ai/dell-and-meta-partner-to-bring-llama-2-open-source-ai-to-enterprise-users-on-premises/