ابزار جدید “مسمومیت” برای فناوری تبدیل متن به تصویر هوش مصنوعی دردسر ایجاد می کند

هنرمندان و عکاسان حرفه ای که از شرکت های مولد هوش مصنوعی که از کار آنها برای آموزش فناوری خود استفاده می کنند، آزرده خاطر می شوند، ممکن است به زودی راه موثری برای پاسخگویی داشته باشند که مستلزم مراجعه به دادگاه نیست.

هوش مصنوعی مولد تقریباً یک سال پیش با راه اندازی چت ربات OpenAI ChatGPT وارد صحنه شد. این ابزار در مکالمه به روشی بسیار طبیعی و شبیه انسان بسیار ماهر است، اما برای به دست آوردن این توانایی باید بر روی انبوهی از داده های خراشیده شده از وب آموزش داده می شد.

ابزارهای مولد مصنوعی مشابه نیز قادر به انجام این کار هستند تولید تصاویر از پیام های متنیاما مانند ChatGPT، آنها با خراش دادن تصاویر منتشر شده در وب آموزش می بینند.

این بدان معناست که هنرمندان و عکاسان از آثار خود – بدون رضایت یا غرامت – توسط شرکت‌های فناوری برای ساخت ابزارهای هوش مصنوعی خود استفاده می‌کنند.

برای مبارزه با این موضوع، تیمی از محققان ابزاری به نام Nightshade توسعه داده‌اند که می‌تواند مدل آموزشی را گیج کند و باعث شود که در پاسخ به درخواست‌ها، تصاویر اشتباه را بیرون بیاورد.

اخیراً در مقاله ای توسط بررسی فناوری MITNightshade داده‌های آموزشی را با افزودن پیکسل‌های نامرئی به یک اثر هنری قبل از آپلود در وب، «مسموم» می‌کند.

استفاده از آن برای «مسموم کردن» این داده‌های آموزشی می‌تواند به تکرارهای آینده مدل‌های هوش مصنوعی تولیدکننده تصویر، مانند DALL-E، Midjourney و Stable Diffusion، با بی‌فایده‌کردن برخی از خروجی‌های آنها آسیب برساند – سگ‌ها گربه می‌شوند، ماشین‌ها به گاو تبدیل می‌شوند و در گزارش MIT آمده است، و افزوده است که تحقیقات پشت Nightshade برای بررسی همتایان ارائه شده است.

در حالی که ابزارهای تولید تصویر در حال حاضر چشمگیر هستند و همچنان در حال بهبود هستند، نحوه آموزش آنها بحث برانگیز شده است، به طوری که بسیاری از سازندگان ابزار در حال حاضر با شکایت هنرمندانی مواجه هستند که ادعا می کنند کار آنها بدون مجوز یا پرداخت هزینه استفاده شده است.

پروفسور دانشگاه شیکاگو، بن ژائو، که رهبری تیم تحقیقاتی Nightshade را بر عهده داشت، گفت که چنین ابزاری می تواند به بازگرداندن موازنه قدرت به هنرمندان کمک کند و به شرکت های فناوری که حق چاپ و مالکیت معنوی را نادیده می گیرند، هشدار می دهد.

MIT Technology Review در گزارش خود گفت: «مجموعه داده‌های مدل‌های بزرگ هوش مصنوعی می‌تواند از میلیاردها تصویر تشکیل شده باشد، بنابراین هرچه تصاویر مسموم بیشتری را بتوان در مدل خراش داد، آسیب بیشتری به این تکنیک وارد می‌کند.»

وقتی Nightshade را منتشر کرد، تیم در حال برنامه ریزی برای تبدیل آن به منبع باز است تا دیگران بتوانند آن را اصلاح کنند و آن را موثرتر کنند.

تیم سازنده Nightshade با آگاهی از پتانسیل آن برای ایجاد اختلال، گفت که باید از آن به عنوان “آخرین دفاع برای سازندگان محتوا در برابر خراش دهنده های وب” استفاده شود که به حقوق آنها بی احترامی می کنند.

در تلاش برای مقابله با این مشکل، OpenAI خالق DALL-E اخیرا شروع به کار کرد به هنرمندان اجازه می دهد آثار خود را حذف کنند از داده‌های آموزشی آن، اما این فرآیند به‌عنوان بسیار طاقت‌فرسا توصیف شده است، زیرا هنرمند باید یک کپی از هر تصویری را که می‌خواهد حذف کند، همراه با توضیحی از آن تصویر، با هر درخواستی که به کاربرد خاص خود نیاز دارد، ارسال کند.

آسان‌تر کردن فرآیند حذف ممکن است تا حدودی باعث دلسردی هنرمندان از استفاده از ابزاری مانند Nightshade شود، که می‌تواند در درازمدت مشکلات بیشتری را برای OpenAI و دیگران ایجاد کند.

توصیه های سردبیران







ابزارهای مولد مصنوعی مشابه نیز قادر به انجام این کار هستند تولید تصاویر از پیام های متنیاما مانند ChatGPT، آنها با خراش دادن تصاویر منتشر شده در وب آموزش می بینند.


منبع: https://www.digitaltrends.com/computing/new-corruption-tool-nightshade-ai/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *