هنرمندان و عکاسان حرفه ای که از شرکت های مولد هوش مصنوعی که از کار آنها برای آموزش فناوری خود استفاده می کنند، آزرده خاطر می شوند، ممکن است به زودی راه موثری برای پاسخگویی داشته باشند که مستلزم مراجعه به دادگاه نیست.
هوش مصنوعی مولد تقریباً یک سال پیش با راه اندازی چت ربات OpenAI ChatGPT وارد صحنه شد. این ابزار در مکالمه به روشی بسیار طبیعی و شبیه انسان بسیار ماهر است، اما برای به دست آوردن این توانایی باید بر روی انبوهی از داده های خراشیده شده از وب آموزش داده می شد.
ابزارهای مولد مصنوعی مشابه نیز قادر به انجام این کار هستند تولید تصاویر از پیام های متنیاما مانند ChatGPT، آنها با خراش دادن تصاویر منتشر شده در وب آموزش می بینند.
این بدان معناست که هنرمندان و عکاسان از آثار خود – بدون رضایت یا غرامت – توسط شرکتهای فناوری برای ساخت ابزارهای هوش مصنوعی خود استفاده میکنند.
برای مبارزه با این موضوع، تیمی از محققان ابزاری به نام Nightshade توسعه دادهاند که میتواند مدل آموزشی را گیج کند و باعث شود که در پاسخ به درخواستها، تصاویر اشتباه را بیرون بیاورد.
اخیراً در مقاله ای توسط بررسی فناوری MITNightshade دادههای آموزشی را با افزودن پیکسلهای نامرئی به یک اثر هنری قبل از آپلود در وب، «مسموم» میکند.
استفاده از آن برای «مسموم کردن» این دادههای آموزشی میتواند به تکرارهای آینده مدلهای هوش مصنوعی تولیدکننده تصویر، مانند DALL-E، Midjourney و Stable Diffusion، با بیفایدهکردن برخی از خروجیهای آنها آسیب برساند – سگها گربه میشوند، ماشینها به گاو تبدیل میشوند و در گزارش MIT آمده است، و افزوده است که تحقیقات پشت Nightshade برای بررسی همتایان ارائه شده است.
در حالی که ابزارهای تولید تصویر در حال حاضر چشمگیر هستند و همچنان در حال بهبود هستند، نحوه آموزش آنها بحث برانگیز شده است، به طوری که بسیاری از سازندگان ابزار در حال حاضر با شکایت هنرمندانی مواجه هستند که ادعا می کنند کار آنها بدون مجوز یا پرداخت هزینه استفاده شده است.
پروفسور دانشگاه شیکاگو، بن ژائو، که رهبری تیم تحقیقاتی Nightshade را بر عهده داشت، گفت که چنین ابزاری می تواند به بازگرداندن موازنه قدرت به هنرمندان کمک کند و به شرکت های فناوری که حق چاپ و مالکیت معنوی را نادیده می گیرند، هشدار می دهد.
MIT Technology Review در گزارش خود گفت: «مجموعه دادههای مدلهای بزرگ هوش مصنوعی میتواند از میلیاردها تصویر تشکیل شده باشد، بنابراین هرچه تصاویر مسموم بیشتری را بتوان در مدل خراش داد، آسیب بیشتری به این تکنیک وارد میکند.»
وقتی Nightshade را منتشر کرد، تیم در حال برنامه ریزی برای تبدیل آن به منبع باز است تا دیگران بتوانند آن را اصلاح کنند و آن را موثرتر کنند.
تیم سازنده Nightshade با آگاهی از پتانسیل آن برای ایجاد اختلال، گفت که باید از آن به عنوان “آخرین دفاع برای سازندگان محتوا در برابر خراش دهنده های وب” استفاده شود که به حقوق آنها بی احترامی می کنند.
در تلاش برای مقابله با این مشکل، OpenAI خالق DALL-E اخیرا شروع به کار کرد به هنرمندان اجازه می دهد آثار خود را حذف کنند از دادههای آموزشی آن، اما این فرآیند بهعنوان بسیار طاقتفرسا توصیف شده است، زیرا هنرمند باید یک کپی از هر تصویری را که میخواهد حذف کند، همراه با توضیحی از آن تصویر، با هر درخواستی که به کاربرد خاص خود نیاز دارد، ارسال کند.
آسانتر کردن فرآیند حذف ممکن است تا حدودی باعث دلسردی هنرمندان از استفاده از ابزاری مانند Nightshade شود، که میتواند در درازمدت مشکلات بیشتری را برای OpenAI و دیگران ایجاد کند.
توصیه های سردبیران
-
ابزار جدید OpenAI میتواند تصاویر جعلی هوش مصنوعی را شناسایی کند، اما یک نکته وجود دارد
-
متا به تازگی یک هوش مصنوعی Snoop Dogg برای RPG های متنی شما ایجاد کرده است
-
یک نظرسنجی جدید می گوید که اکثر مردم به هوش مصنوعی بی اعتماد هستند و خواهان مقررات هستند
-
Zoom ChatGPT را اضافه می کند تا به شما کمک کند تا تماس های از دست رفته را دریافت کنید
-
Google Bard می تواند به زودی مربی زندگی جدید هوش مصنوعی شما شود
ابزارهای مولد مصنوعی مشابه نیز قادر به انجام این کار هستند تولید تصاویر از پیام های متنیاما مانند ChatGPT، آنها با خراش دادن تصاویر منتشر شده در وب آموزش می بینند.
منبع: https://www.digitaltrends.com/computing/new-corruption-tool-nightshade-ai/