تحقیقات نشان می دهد که حملات Deepfake ‘swap’ در سال گذشته ۷۰۴ درصد افزایش یافته است

تحقیقات نشان می دهد که حملات Deepfake ‘swap’ در سال گذشته ۷۰۴ درصد افزایش یافته است

بر اساس تحقیقات جدید، حملات Deepfake “Swap Face Swap” از نیمه اول تا نیمه دوم سال ۲۰۲۳ به میزان ۷۰۴ درصد افزایش یافته است.

تحلیلگران در iProovیک شرکت بیومتریک بریتانیایی، این افزایش را به دسترسی رو به رشد مولدهای پیچیده نسبت داد هوش مصنوعی ابزار.

با توانایی آنها برای دستکاری ویژگی های کلیدی یک تصویر یا ویدیو، تشخیص تعویض چهره با GenAI دشوار است.

آنها همچنین کاربر پسند و مقرون به صرفه هستند. برای ایجاد مبادله چهره متقاعد کننده، تنها چیزی که نیاز دارید خارج از قفسه است نرم افزار. سپس خروجی دستکاری شده یا مصنوعی به دوربین مجازی داده می شود.

ابزارهای مبادله چهره بسیار زیاد شده است که ایجاد و تزریق تعویض چهره با دانش فنی بسیار کمی را بسیار آسان کرده است. دکتر اندرو نیوول، مدیر ارشد علمی iProov، به TNW گفت.

“دانش این ابزارها به سرعت از طریق انجمن های اشتراک گذاری اطلاعات، همراه با تکنیک هایی برای دور زدن بسیاری از دفاع های موجود، در حال گسترش است.”

پنهان کردن جنایات دیپ فیک

به گفته iProov، SwapFace و DeepFaceLive محبوب ترین ابزار برای بازیگران بد هستند.

مهاجمان اغلب آنها را با شبیه سازها – که دستگاه کاربر مانند تلفن همراه را تقلید می کنند – در کنار سایر روش های دستکاری ابرداده ترکیب می کنند.

با استفاده از این ابزارها، کلاهبرداران می توانند شواهد دوربین های مجازی را پنهان کنید، که تشخیص تعویض چهره را سخت تر می کند.

کلاهبرداران هویت به سرعت از این آسیب پذیری سوء استفاده کرده اند. از H1 تا H2 سال گذشته، استفاده از دیپ فیک رسانه ها در کنار جعل ابرداده تا ۶۷۲ درصد افزایش یافت. در همان دوره، ۳۵۳ درصد افزایش در عوامل تهدید با استفاده از شبیه سازها وجود داشت.

همکاری نیز در حال افزایش است. از گروه‌هایی که توسط تحلیلگران iProov شناسایی شده‌اند، تقریباً نیمی (۴۷%) در سال ۲۰۲۳ ایجاد شده‌اند.

تعویض چهره در سرفصل ها

تحقیقات iProov چند روز بعد می رسد یکی از بزرگترین کلاهبرداری های دیپ فیک در تاریخ.

به گفته پلیس چین، یک کارمند مالی در هنگ کنگ فریب خورده و ۲۰۰ میلیون دلار هنگ کنگ (۲۳٫۸ میلیون یورو) را به متهمانی که در یک تماس ویدیویی خود را به عنوان همکارانش معرفی کرده اند، انتقال داده است. به غیر از قربانی، همه کسانی که در تماس بودند، سرگرمی دیجیتالی یک کارمند واقعی بودند.

اگرچه تایید نشده است، به احتمال زیاد در این حمله از فناوری تعویض چهره استفاده شده است، که کنترل بسیار بالایی بر روی ویدیوی دیپ‌فیک به دست آمده در اختیار عوامل تهدید قرار می‌دهد، همراه با تکنیک‌های تزریقی به‌گونه‌ای که به نظر می‌رسد که ویدئو روی ویدیو نیوول گفت که تماس از یک دوربین واقعی می آمد.

اینها ابزارهایی هستند که ما در گزارش خود به عنوان تهدیدی بسیار مهم شناسایی کرده ایم.»

چهار سال بعد، محققان این دیپ فیک ها را برجسته کردند نگران کننده ترین جنایت هوش مصنوعینگرانی های آنها در حال تبدیل شدن به واقعیت است.


منبع: https://thenextweb.com/news/deepfake-face-swap-attacks-increase

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *