به نظر می رسد که چت ربات هوش مصنوعی مایکروسافت یک حقیقت دهنده انتخابات است.
با توجه به الف مطالعه جدید چت ربات هوش مصنوعی مایکروسافت که توسط دو گروه غیرانتفاعی، AI Forensics و AlgorithmWatch انجام شد، نتوانست به درستی به یکی از سه سؤال مربوط به انتخابات پاسخ دهد.
چت ربات مایکروسافت بحث هایی را درباره نامزدهای سیاسی ایجاد می کند
چت بات، که قبلا به عنوان بینگ چت شناخته می شد (از آن زمان به مایکروسافت کپیلوت تغییر نام داده شد)، همچنین حقایق اساسی را اشتباه نمی دانست. بله، این مطالعه نشان داد که Copilot تاریخ انتخابات نادرست یا نامزدهای قدیمی را ارائه می دهد. اما، این مطالعه همچنین نشان داد که چت بات حتی به طور کامل داستان هایی مانند جنجال در مورد نامزدها را می سازد.
به عنوان مثال، در یکی از موارد ذکر شده در این مطالعه، Copilot اطلاعاتی درباره سیاستمدار آلمانی Hubert Aiwanger به اشتراک گذاشت. به گفته ربات چت، آیوانگر درگیر بحثی در مورد توزیع بروشورهایی بود که اطلاعات نادرست درباره کووید-۱۹ و واکسن منتشر میکرد. با این حال، چنین داستانی وجود نداشت. به نظر میرسد که ربات چت در حال جمعآوری اطلاعاتی درباره Aiwanger است که در اوت ۲۰۲۳ منتشر شد و او در آن زمان که بیش از ۳۰ سال پیش در دبیرستان تحصیل میکرد، “بروشورهای یهودیستیزانه” را پخش کرد.
ایجاد این روایت های ساختگی در مدل های زبان هوش مصنوعی معمولاً به عنوان “توهم” شناخته می شود. با این حال، محققان درگیر در این مطالعه می گویند که این روش دقیقی برای توصیف آنچه در حال وقوع است نیست.
ریکاردو آنگیوس، سرپرست و محقق ریاضی کاربردی در AI Forensics در بیانیهای گفت: «زمان آن رسیده است که به این اشتباهات به عنوان «توهم» اشاره کنیم. “تحقیق ما وقوع بسیار پیچیده تر و ساختاری اشتباهات واقعی گمراه کننده را در LLMهای همه منظوره و چت بات ها آشکار می کند.”
سوال چت ربات هوش مصنوعی محققان را نگران کرد
این مطالعه همچنین نشان داد که چت بات در حدود ۴۰ درصد مواقع از پاسخگویی مستقیم به سوالات طفره می رفت. محققان بیان میکنند که در مواردی که چت ربات اطلاعات مرتبطی ندارد، این بهتر از پاسخگویی است. با این حال، محققان در مورد ساده بودن برخی از سوالاتی که چت بات از آنها طفره رفته بود نگران بودند.
موضوع دیگر، به گفته محققان، این است که به نظر نمی رسد چت بات با گذشت زمان بهبود یابد زیرا به نظر می رسید به اطلاعات بیشتری دسترسی دارد. پاسخ های نادرست به طور مداوم نادرست بودند، حتی اگر پاسخ نادرست ارائه شده توسط ربات چت در هنگام پرسیدن یک سوال چندین بار تغییر کرده بود.
علاوه بر این، این مطالعه همچنین نشان داد که چت بات در زبانهایی غیر از انگلیسی، مانند آلمانی و فرانسوی، حتی بدتر عمل میکند. به عنوان مثال، این مطالعه نشان داد که پاسخ به سؤالات به زبان انگلیسی در ۲۰ درصد مواقع منجر به پاسخی می شود که حاوی خطای واقعی است. وقتی به زبان آلمانی پرسیده شد، تعداد دفعاتی که پاسخ نادرست ارائه شد به ۳۷ درصد رسید. تعداد دفعاتی که چت بات از پاسخ دادن به یک سوال به هر دو زبان طفره می رفت بسیار نزدیکتر بود و به ترتیب در ۳۹ درصد و ۳۵ درصد موارد طفره رفتن رخ می داد.
محققان میگویند که با مایکروسافت در ارتباط با یافتههای این مطالعه تماس گرفتهاند و به آنها گفته شده که این مشکلات برطرف خواهد شد. با این حال، محققان نمونههای بیشتری را یک ماه بعد انجام دادند و دریافتند که “تغییر کمی در کیفیت اطلاعات ارائه شده به کاربران ایجاد شده است.”
سالواتور رومانو، محقق ارشد AI Forensics در بیانیه ای گفت: «تحقیق ما نشان می دهد که عوامل مخرب تنها منبع اطلاعات نادرست نیستند، چت ربات های همه منظوره می توانند به همان اندازه برای اکوسیستم اطلاعات تهدید کننده باشند. مایکروسافت باید این را بپذیرد و تشخیص دهد که پرچمگذاری محتوای تولیدی هوش مصنوعی ساخته شده توسط دیگران کافی نیست. ابزارهای آنها، حتی زمانی که منابع قابل اعتماد را درگیر میکنند، اطلاعات نادرستی را در مقیاس تولید میکنند.
از آنجایی که هوش مصنوعی در پلتفرمهای آنلاین رایجتر میشود، مطالعاتی مانند این مطمئناً دلایلی برای نگرانی ارائه میدهد. کاربران به طور فزاینده ای به چت ربات های هوش مصنوعی روی می آورند تا روال خود را ساده کرده و بهره وری را افزایش دهند. فرض بر این است که این چت بات ها با دانش نامحدودی که در اختیار دارند، اطلاعات دقیقی را ارائه خواهند کرد. این است که به سادگی این مورد نیست.
کلارا هلمینگ، مدیر ارشد سیاست و حمایت در AlgorithmWatch میگوید: «تا کنون، شرکتهای فناوری خطرات اجتماعی را بدون ترس از عواقب جدی معرفی کردهاند. “کاربران در جدا کردن واقعیت از داستان های ساخته شده توسط هوش مصنوعی به حال خود رها می شوند.”
همانطور که به سال انتخابات ریاست جمهوری در ایالات متحده می رویم، واضح است که مسائل بالقوه یکپارچگی انتخابات در خطر است. با در نظر گرفتن این موضوع، محققان نتیجه گیری خود را به مطالعه خود اضافه کردند: این مشکلات به تنهایی توسط شرکت ها رفع نمی شوند. هوش مصنوعی باید تنظیم شود.
موضوعات
هوش مصنوعی
امنیت سایبری
مایکروسافت
سیاست
منبع: https://mashable.com/article/microsoft-bing-ai-chatbot-copilot-election-misinformation-study