معماری جدید ترانسفورماتور می‌تواند مدل‌های زبان را سریع‌تر و از نظر منابع کارآمدتر کند

معماری جدید ترانسفورماتور می‌تواند مدل‌های زبان را سریع‌تر و از نظر منابع کارآمدتر کند

معماری ترانسفورماتور جدید ETH زوریخ، کارایی مدل زبان را افزایش می‌دهد و دقت را حفظ می‌کند و در عین حال اندازه و نیازهای محاسباتی را کاهش می‌دهد.ادامه مطلب منبع: https://venturebeat.com/ai/new-transformer-architecture-can-make-language-models-faster-and-resource-efficient/