مطالعه نشان می‌دهد که مدل‌های زبانی می‌توانند از استگانوگرافی برای پنهان کردن استدلال خود استفاده کنند

مطالعه نشان می‌دهد که مدل‌های زبانی می‌توانند از استگانوگرافی برای پنهان کردن استدلال خود استفاده کنند

تحقیقات Redwood کشف می‌کند که مدل‌های زبان بزرگ (LLM) می‌توانند از «استدلال رمزگذاری‌شده»، نوعی از استگانوگرافی، برای گنجاندن مراحل استدلال در پاسخ‌های خود استفاده کنند، عملکرد را افزایش دهند اما به طور بالقوه شفافیت را کاهش دهند و نظارت بر هوش مصنوعی را پیچیده کنند.ادامه مطلب منبع: https://venturebeat.com/ai/language-models-can-use-steganography-to-hide-their-reasoning-study-finds/