معماری جدید ترانسفورماتور می‌تواند مدل‌های زبان را سریع‌تر و از نظر منابع کارآمدتر کند

معماری جدید ترانسفورماتور می‌تواند مدل‌های زبان را سریع‌تر و از نظر منابع کارآمدتر کند


معماری ترانسفورماتور جدید ETH زوریخ، کارایی مدل زبان را افزایش می‌دهد و دقت را حفظ می‌کند و در عین حال اندازه و نیازهای محاسباتی را کاهش می‌دهد.ادامه مطلب


منبع: https://venturebeat.com/ai/new-transformer-architecture-can-make-language-models-faster-and-resource-efficient/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *