VentureBeat ارائه می دهد: AI Unleashed – یک رویداد اجرایی انحصاری برای رهبران داده های سازمانی. شبکه و یادگیری با همتایان صنعت. بیشتر بدانید
از آنجایی که ChatGPT وارد صحنه شد تقریبا یک سال پیش عصر هوش مصنوعی مولد به سرعت بالا رفته است، اما مخالفان نیز همینطور.
تعدادی از هنرمندان، مجریان، مجریان و حتی شرکتهای ضبط صوت شکایت کردهاند در برابر شرکت های هوش مصنوعی، برخی در برابر OpenAI سازنده ChatGPTبر اساسسس مخفیپشت همه این ابزارهای جدید: داده های آموزشی. به این معنا که این مدلهای هوش مصنوعی بدون دسترسی به حجم زیادی از چند رسانهای و یادگیری از آن، از جمله مطالب نوشتاری و تصاویر تولید شده توسط هنرمندانی که هیچ دانش قبلی نداشتند، کار نمیکنند، و همچنین فرصتی برای مخالفت با استفاده از کارشان برای آموزش هوش مصنوعی تجاری جدید وجود ندارد. . محصولات
در مورد این مجموعه داده های آموزشی مدل هوش مصنوعی، بسیاری از آنها شامل می شوند مواد خراشیده شده از وبرویهای که قبلاً هنرمندان به طور کلی از آن پشتیبانی میکردند، زمانی که از آن برای فهرستبندی مطالب خود برای نتایج جستجو استفاده میشد، اما اکنون بسیاری با آن مخالفت کردهاند، زیرا امکان ایجاد آثار رقیب از طریق هوش مصنوعی را فراهم میکند.
اما حتی بدون طرح دعوی قضایی، هنرمندان این شانس را دارند که با استفاده از فناوری با هوش مصنوعی مقابله کنند. بررسی فناوری MIT نگاهی انحصاری به یک ابزار منبع باز جدید به نام Nightshade که هنوز در حال توسعه است، دیدم، که هنرمندان میتوانند آن را قبل از آپلود در وب به تصاویر خود اضافه کنند و پیکسلها را بهگونهای تغییر دهد که برای چشم انسان نامرئی باشد، اما «مسموم» است. هنر برای هر مدل هوش مصنوعی که به دنبال آموزش بر روی آن است.
جایی که Nightshade از آنجا آمد
Nightshade توسط محققان دانشگاه شیکاگو توسعه داده شد استاد علوم کامپیوتر بن ژائو و به عنوان یک تنظیم اختیاری به آنها اضافه خواهد شد محصول قبلی لعابابزار آنلاین دیگری که می تواند آثار هنری دیجیتال را پنهان کند و پیکسل های آن را تغییر دهد تا مدل های هوش مصنوعی را در مورد سبک آن گیج کند.
در مورد Nightshade، ضد حمله هنرمندان علیه هوش مصنوعی کمی فراتر می رود: باعث می شود مدل های هوش مصنوعی نام اشتباه اشیا و مناظری را که به آنها نگاه می کنند یاد بگیرند.
برای مثال، محققان تصاویری از سگها را مسموم کردند تا اطلاعاتی را در پیکسلهایی بگنجانند که به یک مدل هوش مصنوعی بهعنوان یک گربه جلوه میکند.
پس از نمونه برداری و یادگیری از ۵۰ نمونه تصویر مسموم، هوش مصنوعی شروع به تولید تصاویری از سگ هایی با پاهای عجیب و غریب و ظاهر ناراحت کننده کرد.
پس از ۱۰۰ نمونه سم، هنگامی که یک کاربر سگ از آن درخواست کرد، به طور قابل اعتمادی یک گربه تولید کرد. بعد از ۳۰۰، هر درخواستی برای گربه، سگی تقریباً بی نقص را بازگرداند.
زهر می چکد
محققان استفاده کردند انتشار پایداریک مدل تولید متن به تصویر منبع باز، برای آزمایش Nightshade و به دست آوردن نتایج فوق.
به لطف ماهیت روش کار مدل های هوش مصنوعی مولد – با گروه بندی کلمات و ایده های مفهومی مشابه در خوشه های فضایی معروف به “تعبیه ها– Nightshade همچنین موفق شد وقتی با کلمات “هاسکی”، “توله سگ” و “گرگ” از آنها خواسته شد، Stable Diffusion را در گربههای برگشتی ردیابی کند.
علاوه بر این، دفاع از تکنیک مسمومیت دادههای Nightshade دشوار است، زیرا توسعهدهندگان مدل هوش مصنوعی را ملزم میکند تا تصاویر حاوی پیکسلهای مسموم را حذف کنند، تصاویری که از نظر طراحی برای چشم انسان واضح نیستند و ممکن است حتی برای ابزارهای خراش دادههای نرمافزاری دشوار باشد. تشخیص.
هر تصویر مسموم شده ای که قبلاً برای مجموعه داده های آموزشی هوش مصنوعی مصرف شده است نیز باید شناسایی و حذف شود. اگر یک مدل هوش مصنوعی قبلاً روی آنها آموزش داده شده بود، احتمالاً باید دوباره آموزش داده شود.
در حالی که محققان اذعان دارند که کار آنها می تواند برای اهداف مخرب مورد استفاده قرار گیرد، “امید آنها این است که با ایجاد یک عامل بازدارنده قوی در برابر بی احترامی به حق چاپ و مالکیت معنوی هنرمندان، تعادل قدرت شرکت های هوش مصنوعی را به سمت هنرمندان بازگرداند.” مقاله مروری MIT Tech در مورد کار آنها.
محققان مقاله ای را که کار خود را در ساخت Nightshade برای بررسی همتایان به کنفرانس امنیت کامپیوتر ارسال کرده اند یوسینکسبر اساس این گزارش
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.
منبع: https://venturebeat.com/ai/meet-nightshade-the-new-tool-allowing-artists-to-poison-ai-models-with-corrupted-training-data/