سال پیش رو برای دموکراسی سال شلوغی خواهد بود. انتخابات بزرگ در ایالات متحده، اتحادیه اروپا و تایوان و سایرین برگزار خواهد شد. درست همانطور که رونمایی از دوره هوش مصنوعی مولد به طور جدی در حال افزایش است – چیزی که برخی از ترس می توانند برای روند دموکراتیک مضر باشد.
یکی از نگرانی های اصلی در مورد مولد هوش مصنوعی این است که میتواند برای انتشار مخرب اطلاعات نادرست استفاده شود، یا اینکه مدلها میتوانند اظهارات نادرستی بسازند و آنها را به عنوان واقعیت معرفی کنند، به اصطلاح توهم. یک مطالعه از دو سازمان غیردولتی اروپایی نشان داد که چت ربات مایکروسافت – Bing AI (که بر روی GPT-4 OpenAI اجرا می شود) – به یک سوم سوالات مربوط به انتخابات در آلمان و سوئیس پاسخ های نادرستی داده است.
این مطالعه توسط Algorithm Watch و AI Forensics انجام شده است. این سازمانها گفتند که چتبات را با سؤالاتی در مورد نامزدها، اطلاعات رأیگیری و رأیدهی، و همچنین درخواستهای بازتر توصیهای در مورد اینکه در مورد موضوعات خاص، مانند محیط زیست، به چه کسی رأی بدهند، واداشتند.
سالواتوره رومانو، محقق ارشد در AI Forensics گفت: «تحقیق ما نشان میدهد که عوامل مخرب تنها منبع اطلاعات نادرست نیستند، چتباتهای همهمنظوره میتوانند به همان اندازه برای اکوسیستم اطلاعات تهدیدکننده باشند.» “مایکروسافت باید این را تصدیق کنند و بدانند که پرچمگذاری محتوای تولیدی هوش مصنوعی ساخته شده توسط دیگران کافی نیست. ابزارهای آنها، حتی زمانی که منابع قابل اعتماد را درگیر می کنند، اطلاعات نادرستی را در مقیاس تولید می کنند.
چت بات مایکروسافت اطلاعات نادرست را به منابع نسبت داد
با توجه به این اشتباهات مطالعه شامل “تاریخ اشتباه انتخابات، نامزدهای منسوخ شده، یا حتی جنجال های ابداع شده در مورد نامزدها” بود. علاوه بر این، اطلاعات نادرست اغلب به منبعی نسبت داده می شد که اطلاعات صحیحی در مورد موضوع داشت. همچنین «داستانهایی درباره دست داشتن نامزدهای انتخاباتی در رفتار رسوایی» ساخته و همچنین این اطلاعات را به منابع معتبر نسبت میدهد.
گاهی اوقات، چت ربات هوش مصنوعی مایکروسافت از پاسخ دادن به سوالاتی که پاسخ آنها را نمی دانست طفره می رفت. با این حال، به جای پاسخ ندادن، اغلب به سادگی یک پاسخ – از جمله جعل اتهامات در مورد فساد – ساخته شده است.
نمونههای این مطالعه از ۲۱ اوت ۲۰۲۳ تا ۲ اکتبر ۲۰۲۳ جمعآوری شد. زمانی که نویسندگان مایکروسافت را از نتایج مطلع کردند، غول فناوری گفت که به دنبال رفع این مشکل است. با این حال، یک ماه بعد، نمونه های جدید نتایج مشابهی را به همراه داشت.
دفتر مطبوعاتی مایکروسافت قبل از انتشار این مقاله برای اظهار نظر در دسترس نبود. با این حال، سخنگوی این شرکت به این خبر گفت روزنامه وال استریت مایکروسافت “به رسیدگی به مشکلات و آماده سازی ابزارهای ما برای عملکرد مطابق انتظارات ما برای انتخابات ۲۰۲۴ ادامه می دهد.” در همین حال، آنها همچنین از کاربران خواستند تا هنگام بررسی نتایج چت ربات هوش مصنوعی مایکروسافت، “بهترین قضاوت” خود را اعمال کنند.
ریکاردو آنجیوس، سرپرست ریاضی کاربردی و محقق AI Forensics گفت: «زمان آن رسیده است که به این اشتباهات به عنوان «توهم» اشاره کنیم. “تحقیق ما وقوع بسیار پیچیده تر و ساختاری اشتباهات واقعی گمراه کننده را در LLMهای همه منظوره و چت بات ها آشکار می کند.”
می توانید مطالعه را به طور کامل پیدا کنید اینجا.
منبع: https://thenextweb.com/news/microsofts-ai-chatbot-hallucinates-election-information