آیا واترمارکینگ دیجیتال می تواند از ما در برابر هوش مصنوعی مولد محافظت کند؟

اخیراً کاخ سفید بایدن تصویب کرد آخرین دستور اجرایی آن طراحی شده برای ایجاد یک چارچوب راهنما برای توسعه هوش مصنوعی مولد – از جمله احراز هویت محتوا و استفاده از واترمارک دیجیتال برای نشان دادن زمانی که دارایی های دیجیتال ساخته شده توسط دولت فدرال توسط کامپیوتر تولید می شوند. در اینجا آمده است که چگونه آن و فن‌آوری‌های مشابه حفاظت از کپی ممکن است به سازندگان محتوا کمک کند تا در عصر اطلاعات نادرست هوش مصنوعی مولد، با امنیت بیشتری آثار آنلاین خود را تأیید کنند.

تاریخچه سریع واترمارکینگ

تکنیک‌های واترمارکینگ آنالوگ برای اولین بار در سال ۱۲۸۲ در ایتالیا توسعه یافت. کاغذسازان سیم‌های نازکی را در قالب کاشت می‌کردند که تقریباً به‌طور نامحسوسی مناطق نازک‌تری از ورق ایجاد می‌کرد که وقتی در مقابل نور قرار می‌گرفتند آشکار می‌شدند. نه تنها از واترمارک های آنالوگ برای احراز هویت محل و نحوه تولید محصولات یک شرکت استفاده می شد، بلکه می توان از علامت ها برای ارسال پیام های پنهان و رمزگذاری شده نیز استفاده کرد. در قرن هجدهم، این فناوری به استفاده دولتی به عنوان وسیله ای برای جلوگیری از جعل ارز گسترش یافت. تکنیک‌های واترمارک رنگی، که مواد رنگ‌شده را بین لایه‌های کاغذ ساندویچ می‌کردند، در همان دوره توسعه یافتند.

اگرچه اصطلاح “واترمارکینگ دیجیتال” تا سال ۱۹۹۲ ابداع نشد، اولین فناوری پشت آن بود. ثبت اختراع توسط Muzac Corporation در سال ۱۹۵۴. سیستمی که آنها ساختند و تا زمانی که شرکت در دهه ۱۹۸۰ فروخته شد از آن استفاده می کردند، موسیقی متعلق به موزاک را با استفاده از یک “شناسایی می کرد.فیلتر بریدگیبرای مسدود کردن سیگنال صوتی در فرکانس ۱ کیلوهرتز در فوران های خاص، مانند کد مورس، برای ذخیره اطلاعات شناسایی.

شرکت‌های نظارت بر تبلیغات و سنجش مخاطب مانند شرکت نیلسن مدت‌هاست که از تکنیک‌های واترمارک استفاده می‌کنند برای برچسب گذاری آهنگ های صوتی برنامه های تلویزیونی برای ردیابی و درک آنچه خانواده های آمریکایی در حال تماشای آن هستند. این روش‌های استگانوگرافی حتی به استاندارد بلوری مدرن راه پیدا کرده‌اند.سیستم سیناویا، و همچنین در برنامه های دولتی مانند احراز هویت گواهینامه های رانندگی، ارزهای ملی و سایر اسناد حساس به عنوان مثال، شرکت دیجیمارک، دارد یک واترمارک برای بسته بندی ایجاد کرد که بارکد محصول را تقریباً نامرئی در سراسر جعبه چاپ می کند و به هر اسکنر دیجیتالی در خط دید اجازه می دهد آن را بخواند. همچنین در برنامه های کاربردی مختلف استفاده شده است برند ضد جعل به افزایش راندمان بازیافت مواد.

اینجا و اکنون

واترمارک دیجیتال مدرن بر اساس همان اصول عمل می کند و به طور نامحسوسی اطلاعات اضافه شده را با استفاده از نرم افزار رمزگذاری ویژه روی یک قطعه محتوا (چه تصویر، چه ویدیو یا صدا) جاسازی می کند. این واترمارک ها به راحتی توسط ماشین ها خوانده می شوند اما تا حد زیادی برای کاربران انسانی نامرئی هستند. این روش با حفاظت‌های رمزنگاری موجود مانند کلیدهای محصول یا دانگل‌های حفاظتی نرم‌افزار متفاوت است زیرا واترمارک‌ها به طور فعال از تغییر یا تکثیر غیرمجاز یک قطعه از محتوا جلوگیری نمی‌کنند، بلکه سابقه‌ای از محل منبع محتوا یا دارنده حق نسخه‌برداری ارائه می‌دهند.

با این حال، سیستم کامل نیست. “هیچ چیزی، به معنای واقعی کلمه، هیچ چیز برای محافظت از آثار دارای حق چاپ در برابر آموزش وجود ندارد [by generative AI models]دکتر بن ژائو، استاد علوم کامپیوتر در دانشگاه شیکاگو، به Engadget از طریق ایمیل به Engadget گفت، به جز کلمه غیرقابل تایید و غیرقابل اجرا شرکت های هوش مصنوعی.

هیچ روش رمزنگاری یا نظارتی موجود برای محافظت از آثار دارای حق چاپ وجود ندارد – هیچ یکاو گفت. “لیست های انصراف توسط آنها به تمسخر گرفته شده است ثبات.ai (آنها نام مدل را به SDXL تغییر داد نادیده گرفتن همه کسانی که برای انصراف از SD 3.0 ثبت نام کرده‌اند، و Facebook/Meta، که در انصراف اخیر خود به کاربران پاسخ دادند. لیست با پیامی که گفته شده است “شما نمی توانید ثابت کنید که قبلاً در مدل ما آموزش دیده اید، بنابراین نمی توانید انصراف دهید.”

ژائو می‌گوید در حالی که فرمان اجرایی کاخ سفید «جاه‌طلبانه است و زمینه‌های بسیار زیادی را در بر می‌گیرد»، برنامه‌هایی که تا به امروز توسط کاخ سفید ارائه شده است، «جزئیات فنی در مورد چگونگی دستیابی به اهدافی که در آن تعیین کرده است» بسیار کم است.

او خاطرنشان می‌کند که “شرکت‌های زیادی وجود دارند که تحت هیچ فشار قانونی یا قانونی قرار ندارند تا به زحمت واترمارک کردن خروجی genAI خود را به زحمت بیندازند. اقدامات داوطلبانه در یک محیط خصمانه که در آن ذینفعان تشویق می‌شوند از مقررات و نظارت‌ها اجتناب کنند یا آنها را دور بزنند، کار نمی‌کنند.”

او افزود: «بخواهیم یا نخواهیم، ​​شرکت‌های تجاری برای کسب درآمد طراحی شده‌اند و به نفع آنهاست که از مقررات دوری کنند».

ما همچنین می‌توانیم به راحتی دولت بعدی ریاست جمهوری را ببینیم روی کار بیایند و فرمان اجرایی بایدن را از بین ببرند و تمام زیرساخت های فدرال که برای اجرای آن انجام شد، زیرا یک فرمان اجرایی فاقد جایگاه قانون اساسی قانون کنگره است. اما روی این حساب نکنید که مجلس و سنا نیز کاری در مورد این موضوع انجام دهند.

آنو برادفورد، استاد حقوق در دانشگاه کلمبیا، گفت: «کنگره عمیقاً قطبی شده و حتی ناکارآمد است تا جایی که بعید است در آینده نزدیک قانون معناداری برای هوش مصنوعی ایجاد کند. بررسی فنی MIT. تاکنون، مکانیسم‌های اجرایی برای این طرح‌های واترمارک به طور کلی محدود شده‌اند سوگندهای صورتی توسط بازیگران اصلی این صنعت.

اعتبار محتوا چگونه کار می کند

با این‌که چرخ‌های دولت به آرامی می‌چرخند، جایگزین‌های صنعتی ضروری هستند. مایکروسافت، نیویورک تایمز، CBC/Radio-Canada و BBC شروع به کار کردند مبدا پروژه در سال ۲۰۱۹ برای محافظت از یکپارچگی محتوا، صرف نظر از پلتفرمی که در آن مصرف می شود. در همان زمان، Adobe و شرکای آن راه اندازی شد ابتکار اصالت محتوا (CAI)، به موضوع از دیدگاه سازنده نزدیک می شود. در نهایت CAI و Project Origin تلاش های خود را برای ایجاد آن ترکیب کردند ائتلاف برای منشأ و اصالت محتوا (C2PA). از این ائتلاف ائتلاف ها Content Credentials (به اختصار «CR»)، که Adobe در رویداد Max خود اعلام کرد در سال ۲۰۲۱

CR اطلاعات اضافی را پیوست می کند در مورد یک تصویر هر زمان که در قالب یک مانیفست امن رمزنگاری صادر یا دانلود شود. مانیفست داده‌ها را از هدر تصویر یا ویدیو بیرون می‌کشد – اطلاعات سازنده، کجا گرفته شده، چه زمانی گرفته شده است، چه دستگاهی آن را گرفته است، آیا از سیستم‌های هوش مصنوعی مولد مانند DALL-E یا Stable Diffusion استفاده شده است و چه ویرایش‌هایی از آن زمان انجام شده است. – به وب‌سایت‌ها اجازه می‌دهد آن اطلاعات را در برابر ادعاهای منشأ ارائه شده در مانیفست بررسی کنند. هنگامی که با فناوری واترمارک ترکیب می شود، نتیجه یک روش احراز هویت منحصر به فرد است که نمی تواند به راحتی مانند EXIF ​​و ابرداده (یعنی جزئیات فنی به طور خودکار توسط نرم افزار یا دستگاهی که تصویر را اضافه می کند) هنگام آپلود در سایت های رسانه های اجتماعی (در حساب کاربری) حذف شود. امضای فایل رمزنگاری شده). بی شباهت به فناوری بلاک چین نیست!

متادیتا معمولاً از جریان‌های کاری رایج دوام نمی‌آورد زیرا محتوا در اینترنت به هم ریخته می‌شود، زیرا، کن سیکلز، مدیر تولید دیجی‌مارک به Engadget توضیح داد، بسیاری از سیستم‌های آنلاین برای پشتیبانی یا خواندن آنها ساخته نشده‌اند و بنابراین به سادگی داده‌ها را نادیده می‌گیرند.

تونی رودریگز، مدیر ارشد فناوری Digimarc به Engadget گفت: «قیاسی که ما در گذشته از آن استفاده کرده‌ایم، شبیه به یک پاکت است. مانند یک پاکت، محتوای ارزشمندی که می‌خواهید ارسال کنید در داخل قرار می‌گیرد «و این جایی است که واترمارک می‌نشیند». این در واقع بخشی از پیکسل ها، صدا، هر رسانه ای است. فراداده، تمام آن اطلاعات دیگر، در قسمت بیرونی پاکت نامه نوشته شده است.

اگر کسی موفق به حذف واترمارک شود (معلوم شد، آنقدر سخت نیستفقط از تصویر اسکرین شات بگیرید و نماد را بردارید) اعتبارنامه ها را می توان دوباره از طریق آن وصل کرد تأیید کنید، که الگوریتم های بینایی ماشین را بر روی یک تصویر آپلود شده اجرا می کند تا مطابق با مخزن آن پیدا کند. اگر تصویر آپلود شده قابل شناسایی باشد، اعتبارنامه مجددا اعمال می شود. اگر کاربر با محتوای تصویر در طبیعت روبرو شود، می‌تواند اعتبار آن را با کلیک بر روی نماد CR بررسی کند تا مانیفست کامل را باز کند و اطلاعات را برای خود تأیید کند و تصمیم آگاهانه‌تری در مورد اینکه به چه محتوای آنلاین اعتماد کند، بگیرد.

Sickles این سیستم‌های احراز هویت را تصور می‌کند که در لایه‌های هماهنگ عمل می‌کنند، مانند یک سیستم امنیتی خانه که قفل‌ها و قفل‌ها را با دوربین‌ها و سنسورهای حرکت جفت می‌کند تا پوشش آن را افزایش دهد. سیکلز گفت: «این زیبایی اعتبارنامه محتوا و واترمارک در کنار هم است. «آن‌ها به سیستمی بسیار بسیار قوی‌تر به‌عنوان پایه‌ای برای اصالت و درک مشیت حول یک تصویر» نسبت به آنچه که به صورت جداگانه عمل می‌کنند، تبدیل می‌شوند.» Digimarc ابزار تشخیص واترمارک خود را آزادانه بین توسعه‌دهندگان هوش مصنوعی مولد توزیع می‌کند و استاندارد Content Credentials را در موجود خود ادغام می‌کند. تایید اعتبار پلت فرم محافظت از کپی آنلاین

در عمل، ما در حال حاضر شاهد گنجاندن این استاندارد در محصولات تجاری فیزیکی مانند Leica M11-P هستیم که به طور خودکار اعتبار CR را در هنگام گرفتن تصاویر به آنها اضافه می کند. این نیویورک تایمز دارد استفاده از آن را در تلاش های روزنامه نگاری بررسی کردرویترز از آن برای ویژگی جاه طلبانه ۷۶ روز استفاده کرد و مایکروسافت آن را به Bing Image Creator و Bing AI Chatbot نیز اضافه کرده است. طبق گزارش ها، سونی در تلاش است تا این استاندارد را در خود جای دهد دوربین های دیجیتال آلفا ۹ IIIبا فعال کردن به‌روزرسانی‌های میان‌افزار مدل‌های Alpha 1 و Alpha 7S III که در سال ۲۰۲۴ وارد بازار می‌شوند. CR همچنین در مجموعه گسترده ابزارهای ویرایش عکس و ویدیوی Adobe از جمله Illustrator، Adobe Express، Stock و Behance در دسترس است. هوش مصنوعی مولد خود این شرکت، کرم شب تاببه طور خودکار اطلاعات غیرشخصی قابل شناسایی را در یک CR برای برخی از ویژگی‌ها مانند پر کردن مولد (که اساساً توجه داشته باشید که ویژگی مولد استفاده شده است، اما نه توسط چه کسی) در یک CR گنجانده می‌شود، اما در غیر این صورت انتخاب خواهد شد.

با این اوصاف، استاندارد C2PA و اعتبار محتوای فرانت‌اند به سختی از توسعه خارج شده‌اند و در حال حاضر یافتن آن در رسانه‌های اجتماعی بسیار دشوار است. سیکلز گفت: «من فکر می‌کنم که واقعاً به پذیرش گسترده این فناوری‌ها و جایی که مورد استفاده قرار می‌گیرند مربوط می‌شود؛ هم از منظر پیوست کردن اعتبار محتوا و هم درج واترمارک برای پیوند آنها.

Nightshade: جایگزین CR که برای پایگاه های داده کشنده است

برخی از محققان امنیتی به اندازه کافی منتظر بوده اند تا قوانینی نوشته شود یا استانداردهای صنعتی ریشه دوانده و در عوض حفاظت از کپی را به دست خود گرفته اند. به عنوان مثال، تیم‌هایی از آزمایشگاه SAND دانشگاه شیکاگو، یک جفت سیستم حفاظت از کپی‌برداری را برای استفاده خاص در برابر هوش مصنوعی مولد ایجاد کرده‌اند.

ژائو و تیمش Glaze را توسعه داده اند، سیستمی برای سازندگان که سبک تقلید یک هوش مصنوعی مولد را مختل می کند (با بهره برداری از مفهوم نمونه های متخاصم). این می تواند پیکسل ها را در یک اثر هنری خاص به گونه ای تغییر دهد که توسط چشم انسان غیرقابل تشخیص باشد اما به نظر کاملاً متفاوت با سیستم بینایی ماشین باشد. هنگامی که یک سیستم هوش مصنوعی مولد بر روی این تصاویر “لعاب دار” آموزش داده می شود، نمی تواند دقیقاً سبک مورد نظر هنری را تکرار کند – کوبیسم کارتونی می شود، سبک های انتزاعی به انیمیشن تبدیل می شوند. این می تواند یک نعمت باشد به هنرمندان سرشناس و اغلب تقلید شده به خصوص، در حفظ سبک های هنری برند خود از نظر تجاری ایمن.

در حالی که Glaze بر اقدامات پیشگیرانه برای منحرف کردن تلاش‌های اطلاعات غیرقانونی تمرکز دارد، جدیدترین ابزار SAND Lab کاملاً مجازات است. دوبله شده شبگردسیستم به‌طور نامحسوس پیکسل‌های یک تصویر را تغییر می‌دهد، اما به‌جای اشتباه گرفتن مدل‌هایی که با آن‌ها آموزش داده شده است، مانند Glaze، تصویر مسموم پایگاه‌داده آموزشی را که به صورت عمده‌فروشی مصرف می‌کند، خراب می‌کند، و توسعه‌دهندگان را مجبور می‌کند که به عقب برگردند و هر تصویر آسیب‌رسان را به صورت دستی حذف کنند. مشکل را حل کنید – در غیر این صورت سیستم به سادگی در مورد داده های بد آموزش می بیند و دوباره دچار همان مشکلات می شود.

این ابزار به عنوان “آخرین راه حل” برای سازندگان محتوا در نظر گرفته شده است، اما نمی تواند به عنوان یک بردار حمله استفاده شود. ژائو گفت: “این معادل قرار دادن سس تند در ناهار شماست، زیرا کسی مدام آن را از یخچال می دزدد.”

ژائو نسبت به صاحبان مدل‌هایی که Nightshade به آن‌ها آسیب می‌زند، دلسوزی چندانی ندارد. او گفت: «شرکت‌هایی که عمداً فهرست‌های انصراف را دور می‌زنند و دستورالعمل‌های نخراش را دور می‌زنند، می‌دانند که چه می‌کنند. هیچ دانلود تصادفی و آموزشی در مورد داده وجود ندارد. گرفتن محتوای یک نفر، دانلود آن و آموزش بر روی آن نیازمند تلاش زیاد و نیت کامل است.

این مقاله در ابتدا در Engadget در https://www.engadget.com/can-digital-watermarking-protect-us-from-generative-ai-184542396.html?src=rss منتشر شد


منبع: https://www.engadget.com/can-digital-watermarking-protect-us-from-generative-ai-184542396.html?src=rss

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *