چگونه چت ربات هوش مصنوعی مایکروسافت اطلاعات انتخابات را “توهم” می کند

سال پیش رو برای دموکراسی سال شلوغی خواهد بود. انتخابات بزرگ در ایالات متحده، اتحادیه اروپا و تایوان و سایرین برگزار خواهد شد. درست همانطور که رونمایی از دوره هوش مصنوعی مولد به طور جدی در حال افزایش است – چیزی که برخی از ترس می توانند برای روند دموکراتیک مضر باشد.

یکی از نگرانی های اصلی در مورد مولد هوش مصنوعی این است که می‌تواند برای انتشار مخرب اطلاعات نادرست استفاده شود، یا اینکه مدل‌ها می‌توانند اظهارات نادرستی بسازند و آنها را به عنوان واقعیت معرفی کنند، به اصطلاح توهم. یک مطالعه از دو سازمان غیردولتی اروپایی نشان داد که چت ربات مایکروسافت – Bing AI (که بر روی GPT-4 OpenAI اجرا می شود) – به یک سوم سوالات مربوط به انتخابات در آلمان و سوئیس پاسخ های نادرستی داده است.

این مطالعه توسط Algorithm Watch و AI Forensics انجام شده است. این سازمان‌ها گفتند که چت‌بات را با سؤالاتی در مورد نامزدها، اطلاعات رأی‌گیری و رأی‌دهی، و همچنین درخواست‌های بازتر توصیه‌ای در مورد اینکه در مورد موضوعات خاص، مانند محیط زیست، به چه کسی رأی بدهند، واداشتند.

سالواتوره رومانو، محقق ارشد در AI Forensics گفت: «تحقیق ما نشان می‌دهد که عوامل مخرب تنها منبع اطلاعات نادرست نیستند، چت‌بات‌های همه‌منظوره می‌توانند به همان اندازه برای اکوسیستم اطلاعات تهدیدکننده باشند.» “مایکروسافت باید این را تصدیق کنند و بدانند که پرچم‌گذاری محتوای تولیدی هوش مصنوعی ساخته شده توسط دیگران کافی نیست. ابزارهای آنها، حتی زمانی که منابع قابل اعتماد را درگیر می کنند، اطلاعات نادرستی را در مقیاس تولید می کنند.

چت بات مایکروسافت اطلاعات نادرست را به منابع نسبت داد

با توجه به این اشتباهات مطالعه شامل “تاریخ اشتباه انتخابات، نامزدهای منسوخ شده، یا حتی جنجال های ابداع شده در مورد نامزدها” بود. علاوه بر این، اطلاعات نادرست اغلب به منبعی نسبت داده می شد که اطلاعات صحیحی در مورد موضوع داشت. همچنین «داستان‌هایی درباره دست داشتن نامزدهای انتخاباتی در رفتار رسوایی» ساخته و همچنین این اطلاعات را به منابع معتبر نسبت می‌دهد.

گاهی اوقات، چت ربات هوش مصنوعی مایکروسافت از پاسخ دادن به سوالاتی که پاسخ آنها را نمی دانست طفره می رفت. با این حال، به جای پاسخ ندادن، اغلب به سادگی یک پاسخ – از جمله جعل اتهامات در مورد فساد – ساخته شده است.

نمونه‌های این مطالعه از ۲۱ اوت ۲۰۲۳ تا ۲ اکتبر ۲۰۲۳ جمع‌آوری شد. زمانی که نویسندگان مایکروسافت را از نتایج مطلع کردند، غول فناوری گفت که به دنبال رفع این مشکل است. با این حال، یک ماه بعد، نمونه های جدید نتایج مشابهی را به همراه داشت.

دفتر مطبوعاتی مایکروسافت قبل از انتشار این مقاله برای اظهار نظر در دسترس نبود. با این حال، سخنگوی این شرکت به این خبر گفت روزنامه وال استریت مایکروسافت “به رسیدگی به مشکلات و آماده سازی ابزارهای ما برای عملکرد مطابق انتظارات ما برای انتخابات ۲۰۲۴ ادامه می دهد.” در همین حال، آنها همچنین از کاربران خواستند تا هنگام بررسی نتایج چت ربات هوش مصنوعی مایکروسافت، “بهترین قضاوت” خود را اعمال کنند.

ریکاردو آنجیوس، سرپرست ریاضی کاربردی و محقق AI Forensics گفت: «زمان آن رسیده است که به این اشتباهات به عنوان «توهم» اشاره کنیم. “تحقیق ما وقوع بسیار پیچیده تر و ساختاری اشتباهات واقعی گمراه کننده را در LLMهای همه منظوره و چت بات ها آشکار می کند.”

می توانید مطالعه را به طور کامل پیدا کنید اینجا.


منبع: https://thenextweb.com/news/microsofts-ai-chatbot-hallucinates-election-information

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *