ربات چت هوش مصنوعی Bing مایکروسافت Copilot اطلاعات انتخاباتی اشتباهی را ارائه می دهد

به نظر می رسد که چت ربات هوش مصنوعی مایکروسافت یک حقیقت دهنده انتخابات است.

با توجه به الف مطالعه جدید چت ربات هوش مصنوعی مایکروسافت که توسط دو گروه غیرانتفاعی، AI Forensics و AlgorithmWatch انجام شد، نتوانست به درستی به یکی از سه سؤال مربوط به انتخابات پاسخ دهد.

چت ربات مایکروسافت بحث هایی را درباره نامزدهای سیاسی ایجاد می کند

چت بات، که قبلا به عنوان بینگ چت شناخته می شد (از آن زمان به مایکروسافت کپیلوت تغییر نام داده شد)، همچنین حقایق اساسی را اشتباه نمی دانست. بله، این مطالعه نشان داد که Copilot تاریخ انتخابات نادرست یا نامزدهای قدیمی را ارائه می دهد. اما، این مطالعه همچنین نشان داد که چت بات حتی به طور کامل داستان هایی مانند جنجال در مورد نامزدها را می سازد.

به عنوان مثال، در یکی از موارد ذکر شده در این مطالعه، Copilot اطلاعاتی درباره سیاستمدار آلمانی Hubert Aiwanger به اشتراک گذاشت. به گفته ربات چت، آیوانگر درگیر بحثی در مورد توزیع بروشورهایی بود که اطلاعات نادرست درباره کووید-۱۹ و واکسن منتشر می‌کرد. با این حال، چنین داستانی وجود نداشت. به نظر می‌رسد که ربات چت در حال جمع‌آوری اطلاعاتی درباره Aiwanger است که در اوت ۲۰۲۳ منتشر شد و او در آن زمان که بیش از ۳۰ سال پیش در دبیرستان تحصیل می‌کرد، “بروشورهای یهودی‌ستیزانه” را پخش کرد.

ایجاد این روایت های ساختگی در مدل های زبان هوش مصنوعی معمولاً به عنوان “توهم” شناخته می شود. با این حال، محققان درگیر در این مطالعه می گویند که این روش دقیقی برای توصیف آنچه در حال وقوع است نیست.

ریکاردو آنگیوس، سرپرست و محقق ریاضی کاربردی در AI Forensics در بیانیه‌ای گفت: «زمان آن رسیده است که به این اشتباهات به عنوان «توهم» اشاره کنیم. “تحقیق ما وقوع بسیار پیچیده تر و ساختاری اشتباهات واقعی گمراه کننده را در LLMهای همه منظوره و چت بات ها آشکار می کند.”

سوال چت ربات هوش مصنوعی محققان را نگران کرد

این مطالعه همچنین نشان داد که چت بات در حدود ۴۰ درصد مواقع از پاسخگویی مستقیم به سوالات طفره می رفت. محققان بیان می‌کنند که در مواردی که چت ربات اطلاعات مرتبطی ندارد، این بهتر از پاسخ‌گویی است. با این حال، محققان در مورد ساده بودن برخی از سوالاتی که چت بات از آنها طفره رفته بود نگران بودند.

موضوع دیگر، به گفته محققان، این است که به نظر نمی رسد چت بات با گذشت زمان بهبود یابد زیرا به نظر می رسید به اطلاعات بیشتری دسترسی دارد. پاسخ های نادرست به طور مداوم نادرست بودند، حتی اگر پاسخ نادرست ارائه شده توسط ربات چت در هنگام پرسیدن یک سوال چندین بار تغییر کرده بود.

علاوه بر این، این مطالعه همچنین نشان داد که چت بات در زبان‌هایی غیر از انگلیسی، مانند آلمانی و فرانسوی، حتی بدتر عمل می‌کند. به عنوان مثال، این مطالعه نشان داد که پاسخ به سؤالات به زبان انگلیسی در ۲۰ درصد مواقع منجر به پاسخی می شود که حاوی خطای واقعی است. وقتی به زبان آلمانی پرسیده شد، تعداد دفعاتی که پاسخ نادرست ارائه شد به ۳۷ درصد رسید. تعداد دفعاتی که چت بات از پاسخ دادن به یک سوال به هر دو زبان طفره می رفت بسیار نزدیکتر بود و به ترتیب در ۳۹ درصد و ۳۵ درصد موارد طفره رفتن رخ می داد.

محققان می‌گویند که با مایکروسافت در ارتباط با یافته‌های این مطالعه تماس گرفته‌اند و به آنها گفته شده که این مشکلات برطرف خواهد شد. با این حال، محققان نمونه‌های بیشتری را یک ماه بعد انجام دادند و دریافتند که “تغییر کمی در کیفیت اطلاعات ارائه شده به کاربران ایجاد شده است.”

سالواتور رومانو، محقق ارشد AI Forensics در بیانیه ای گفت: «تحقیق ما نشان می دهد که عوامل مخرب تنها منبع اطلاعات نادرست نیستند، چت ربات های همه منظوره می توانند به همان اندازه برای اکوسیستم اطلاعات تهدید کننده باشند. مایکروسافت باید این را بپذیرد و تشخیص دهد که پرچم‌گذاری محتوای تولیدی هوش مصنوعی ساخته شده توسط دیگران کافی نیست. ابزارهای آن‌ها، حتی زمانی که منابع قابل اعتماد را درگیر می‌کنند، اطلاعات نادرستی را در مقیاس تولید می‌کنند.

از آنجایی که هوش مصنوعی در پلتفرم‌های آنلاین رایج‌تر می‌شود، مطالعاتی مانند این مطمئناً دلایلی برای نگرانی ارائه می‌دهد. کاربران به طور فزاینده ای به چت ربات های هوش مصنوعی روی می آورند تا روال خود را ساده کرده و بهره وری را افزایش دهند. فرض بر این است که این چت بات ها با دانش نامحدودی که در اختیار دارند، اطلاعات دقیقی را ارائه خواهند کرد. این است که به سادگی این مورد نیست.

کلارا هلمینگ، مدیر ارشد سیاست و حمایت در AlgorithmWatch می‌گوید: «تا کنون، شرکت‌های فناوری خطرات اجتماعی را بدون ترس از عواقب جدی معرفی کرده‌اند. “کاربران در جدا کردن واقعیت از داستان های ساخته شده توسط هوش مصنوعی به حال خود رها می شوند.”

همانطور که به سال انتخابات ریاست جمهوری در ایالات متحده می رویم، واضح است که مسائل بالقوه یکپارچگی انتخابات در خطر است. با در نظر گرفتن این موضوع، محققان نتیجه گیری خود را به مطالعه خود اضافه کردند: این مشکلات به تنهایی توسط شرکت ها رفع نمی شوند. هوش مصنوعی باید تنظیم شود.


منبع: https://mashable.com/article/microsoft-bing-ai-chatbot-copilot-election-misinformation-study

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *