McAfee رونمایی از پروژه Mockingbird برای متوقف کردن کلاهبرداری کلون صوتی AI


مک آفی پروژه Mockingbird را به عنوان راهی برای شناسایی عمیق های تولید شده توسط AI که از صدا برای کلاهبرداری مصرف کنندگان با اخبار جعلی و سایر طرح ها استفاده می کند ، معرفی کرده است.

در تلاش برای مقابله با تهدید تشدید شده توسط کلاهبرداری های تولید شده توسط AI ، مک آفی فناوری تشخیص صوتی DeepFake با قدرت AI خود را ایجاد کرد ، با نام Project Mockingbird.

رونمایی شد در CES 2024در نمایشگاه بزرگ فناوری در لاس وگاس، هدف این فناوری نوآورانه محافظت از مصرف کنندگان در برابر مجرمان سایبری است که از صدای دستکاری شده و تولید شده توسط هوش مصنوعی برای انجام کلاهبرداری و دستکاری درک عمومی استفاده می کنند.

در این کلاهبرداری ها ، مانند فیلم پیوست شده ، کلاهبرداران ویدئویی را با یک بلندگو مشروع مانند یک خبرنامه مشهور شروع می کنند. اما پس از آن مطالب جعلی خواهد گرفت و سخنان بلندگو را بیان می کند که گوینده انسانی هرگز در واقع نگفت. استیو گروبمن ، CTO مک آفی ، در مصاحبه با VentureBeat گفت: این Deepfake است.

رویداد VB

تور تاثیر هوش مصنوعی

رسیدن به یک طرح مدیریتی هوش مصنوعی – برای رویداد ۱۰ ژانویه دعوت نامه درخواست کنید.

بیشتر بدانید

گروبمن گفت: “مک آفی تماماً در مورد محافظت از مصرف کنندگان در برابر تهدیداتی است که زندگی دیجیتال آنها را تحت تأثیر قرار می دهد. ما به طور سنتی این کار را برای همیشه در مورد شناسایی بدافزارها و جلوگیری از رفتن افراد به وب سایت های خطرناک انجام داده ایم.” واضح است که با هوش مصنوعی مولد، ما شروع به مشاهده چرخش بسیار سریع مجرمان سایبری، بازیگران بد، با استفاده از هوش مصنوعی مولد برای ساخت طیف گسترده ای از کلاهبرداری کرده ایم.

وی افزود: “در حالی که به سمت چرخه انتخابات پیش می رویم، کاملاً انتظار داریم که از هوش مصنوعی مولد در تعدادی از اشکال برای اطلاعات نادرست و همچنین تولید محتوای قانونی مبارزات سیاسی استفاده شود.” بنابراین، به همین دلیل، در چند سال گذشته، McAfee واقعاً سرمایه گذاری ما را افزایش داده است که چگونه اطمینان حاصل کنیم که فناوری مناسبی داریم که قادر به ورود به محصولات مختلف و فناوری های پشتیبان ما است که می تواند این قابلیت ها را شناسایی کند. سپس بتوانیم توسط مشتریانمان برای تصمیم گیری آگاهانه تر در مورد معتبر بودن یک ویدیو، چیزی است که می خواهند به آن اعتماد کنند، یا چیزی است که باید در مورد آن محتاط تر باشند، استفاده کنند.

اگر در رابطه با سایر مواد هک شده استفاده شود ، Deepfakes می تواند به راحتی مردم را فریب دهد. به عنوان مثال ، بازی های Insomniac ، سازنده Spider-Man 2 هک شد و داده های خصوصی خود را روی وب قرار داد. در میان مطالب به اصطلاح قانونی می‌توان محتوای عمیق جعلی را نام برد که تشخیص آن از محتوای هک شده واقعی شرکت قربانی دشوار است.

گروبمن گفت: «آنچه که قرار است در CES اعلام کنیم، در واقع اولین مجموعه عمومی ما از نمایش برخی از فناوری‌های جدیدتری است که ساختیم. “ما در همه حوزه‌ها کار می‌کنیم. بنابراین روی فناوری تشخیص تصویر، تشخیص ویدیو، تشخیص متن کار می‌کنیم. یکی از مواردی که اخیراً روی آن سرمایه‌گذاری زیادی کرده‌ایم، صدای جعلی عمیق است. و یکی از دلایل آن این است که اگر اگر به دشمنی فکر می‌کنید که محتوای جعلی ایجاد می‌کند، گزینه‌های اختیاری زیادی برای استفاده از انواع ویدیوها وجود دارد که لزوماً صدا از آن شخص نیست. اما فرصت زیادی برای داشتن آهنگ صوتی در بالای رول یا بالای ویدیوی دیگر وجود دارد، وقتی ویدیوی دیگری در تصویر وجود دارد که راوی آن نیست.”

پروژه مرغ مقلد

Project Mockingbird بر اساس گوش دادن به کلماتی که گفته می شود ، تشخیص می دهد که آیا این صدا واقعاً انسان است یا خیر. این راهی برای مبارزه با روند مربوط به استفاده از هوش مصنوعی تولیدی برای ایجاد عمیق قانع کننده است.

ایجاد عمیق از افراد مشهور در فیلم های پورنو مدتی است که مشکلی ایجاد شده است ، اما بیشتر آنها محدود به سایت های ویدیویی DeepFake هستند. جلوگیری از چنین کلاهبرداری برای مصرف کنندگان نسبتاً آسان است. گروبمن گفت ، اما با استفاده از ترفندهای صوتی Deepfake ، مشکل موذیانه تر است. وی گفت که می توانید تعداد زیادی از این کلاهبرداری های صوتی Deepfake را که در پست های رسانه های اجتماعی نشسته اند ، پیدا کنید. وی به ویژه با توجه به انتخابات ریاست جمهوری در سال ۲۰۲۴ ایالات متحده ، نگران ظهور این کلاهبرداری های صوتی عمیق است.

افزایش پیشرفت‌های هوش مصنوعی مجرمان سایبری را در ایجاد محتوای فریبنده تسهیل کرده است و منجر به افزایش کلاهبرداری‌هایی شده است که از صدا و تصویر دستکاری شده سوء استفاده می‌کنند. این فریب‌ها از شبیه‌سازی صوتی گرفته تا جعل هویت افراد عزیز که درخواست پول می‌کنند تا دستکاری ویدیوهای معتبر با صدای تغییر یافته را شامل می‌شود که تشخیص اصالت در قلمرو دیجیتال را برای مصرف‌کنندگان به چالش می‌کشد.

آزمایشگاه McAfee با پیش‌بینی نیاز مبرم برای تشخیص محتوای واقعی از دستکاری شده توسط مشتریان، یک مدل هوش مصنوعی پیشرو در صنعت را توسعه داد که قادر به تشخیص صدای تولید شده توسط هوش مصنوعی است. Project Mockingbird ترکیبی از مدل‌های تشخیص متنی، رفتاری و طبقه‌بندی مبتنی بر هوش مصنوعی را به کار می‌گیرد که دارای نرخ دقت چشمگیر بیش از ۹۰ درصد در شناسایی و محافظت در برابر صدای تغییر یافته بدخواهانه در ویدیوها است.

گروبمن گفت که فناوری مبارزه با دیپ‌فیک‌ها بسیار مهم است و آن را به پیش‌بینی آب‌وهوا تشبیه می‌کند که به افراد در تصمیم‌گیری آگاهانه در تعاملات دیجیتالی خود کمک می‌کند. گروبمن اظهار داشت که قابلیت‌های جدید تشخیص هوش مصنوعی McAfee به کاربران این امکان را می‌دهد که چشم‌انداز دیجیتالی خود را درک کنند و صحت محتوای آنلاین را به دقت بسنجند.

“موارد استفاده برای این فناوری تشخیص هوش مصنوعی بسیار دور است و برای مصرف کنندگان بسیار ارزشمند خواهد بود
در میان افزایش کلاهبرداری های تولید شده توسط AI و اطلاعات ضد عفونی. با تشخیص صدای دیپ فیک مک آفی
قابلیت ها ، ما این قدرت را خواهیم دانست که می دانیم چه چیزی واقعی یا جعلی مستقیم به دست است
گروبمن گفت: “ما به مصرف کنندگان کمک می کنیم از کلاهبرداری های “ارزان تقلبی” که در آن یک سلبریتی شبیه سازی شده ادعای هدایای جدید با مدت زمان محدود را دارد، اجتناب کنند و همچنین مطمئن شویم که مصرف کنندگان هنگام تماشای یک ویدیو در مورد یک نامزد ریاست جمهوری، از واقعی بودن یا واقعی بودن آن مطلع می شوند. هوش مصنوعی برای اهداف مخرب ایجاد شده است. این امر حفاظت در عصر هوش مصنوعی را به سطح جدیدی می برد. هدف ما این است که به کاربران شفافیت و اعتماد به نفس را بدهیم تا در دنیای جدید مبتنی بر هوش مصنوعی ما، از حریم خصوصی و هویت آنلاین و رفاه آنها محافظت کنیم.

از نظر اکوسیستم جرایم سایبری، گروبمن گفت که تیم تحقیقاتی تهدید McAfee استفاده از حساب‌های قانونی را که برای شبکه‌های تبلیغاتی ثبت شده‌اند، به عنوان مثال در پلتفرم‌هایی مانند Meta یافته‌اند.

مک آفی دریافت که چنین دیپیک هایی در سیستم عامل های تبلیغاتی رسانه های اجتماعی مانند فیس بوک ، اینستاگرام ، موضوعات ، پیام رسان و سایر سیستم عامل ها ارسال می شود. در یک مورد، یک کلیسای قانونی وجود داشت که حسابش ربوده شد و بازیگران بد محتوایی با کلاهبرداری های عمیق در رسانه های اجتماعی منتشر کردند.

گروبمن گفت: “هدف اغلب مصرف کننده است. راهی که بازیگران بد می توانند به آنها برسند از طریق برخی از زیرساخت های هدف نرم سایر سازمان ها است.” “ما این را نیز در مورد برخی از مواردی که میزبان آن است ، هنگامی که مردم برای این تقلبی های عمیق قرار می گیرند ، می بینیم.”

در موردی که شامل یک فیلم کلاهبرداری رمزنگاری است ، بازیگران بد می خواهند یک کاربر را بارگیری کنند یا در یک وب سایت ثبت نام کنند.

وی گفت: “این همه این قطعات را در کنار هم قرار داده است ، که طوفان کاملی ایجاد می کند.”

وی گفت: مجرمان سایبری از حساب های تبلیغاتی حساب رسانه های اجتماعی کلیسا یا یک حساب رسانه های اجتماعی تجاری استفاده می کنند. و اینگونه اخبار را منتشر می کنند.

در مثالی که گروبمن به نام «جعلی ارزان» نامیده می‌شود، این یک ویدیوی قانونی از پخش خبری است. و برخی از صداها واقعی است. اما برخی از صداها با صدای عمیق جعلی جایگزین شده اند تا یک محیط کلاهبرداری رمزنگاری ایجاد شود. ویدئویی از یک منبع معتبر، در این مورد CNBC، شروع به صحبت در مورد یک پلت فرم سرمایه گذاری جدید می کند و سپس برای راه اندازی یک کلاهبرداری برای ترغیب کاربران به یک صرافی جعلی کریپتو ربوده می شود.

همانطور که فناوری McAfee به صدا گوش می دهد، تعیین می کند که صدای دیپ فیک از کجا شروع شود و می تواند صدای جعلی را علامت گذاری کند.

گروبمن گفت: “در ابتدا، صدا و تصویر قانونی بود، سپس نمودار نشان می دهد که قسمت های جعلی کجا هستند.”

گروبمن گفت که فناوری تشخیص دیپ فیک برای محافظت از کاربرانی که از قبل نگران قرار گرفتن در معرض دیپ فیک هستند، در یک محصول ادغام می شود. و در این مورد، گروبمن خاطرنشان می‌کند که جلوگیری از رسیدن صدای دیپ فیک به کاربرانی که در پلتفرم‌های اجتماعی احتمالاً ایمن هستند، بسیار سخت است.

کاربردهای این فناوری بسیار گسترده و گسترده است و مصرف کنندگان را با ابزارهایی مجهز می کند تا بتوانند در منظره ای مملو از مزاحمت سایبری مبتنی بر دروغ، اطلاعات نادرست و طرح های تقلبی حرکت کنند. McAfee با ارائه وضوح و اطمینان به کاربران در تشخیص محتوای واقعی و دستکاری شده، قصد دارد حریم خصوصی آنلاین، هویت و رفاه کلی را تقویت کند.

در CES 2024، McAfee اولین نمایش عمومی Project Mockingbird را به نمایش گذاشت و از شرکت کنندگان دعوت کرد تا از نزدیک این فناوری پیشگامانه را تجربه کنند. این رونمایی به عنوان گواهی بر تعهد مک آفی به توسعه مجموعه متنوعی از مدل‌های هوش مصنوعی، ارائه موارد استفاده و پلتفرم‌های مختلف برای محافظت از زندگی دیجیتالی مصرف‌کنندگان به طور جامع است.

McAfee با توضیح نمادگرایی پشت پروژه Mockingbird، تشابهاتی را با رفتار Mockingbirds ترسیم کرد، پرندگانی که به تقلید از آوازهای دیگران معروف هستند. مشابه نحوه تقلید این پرندگان به دلایلی که هنوز به طور کامل مشخص نشده است، مجرمان سایبری از هوش مصنوعی برای تقلید صداها و فریب مصرف کنندگان برای اهداف کلاهبرداری استفاده می کنند.

نظرسنجی در مورد آگاهی دیپ فیک

نگرانی‌ها در مورد فناوری دیپ‌فیک کاملاً محسوس است و نظرسنجی McAfee در دسامبر ۲۰۲۳ نشان می‌دهد که نگرانی فزاینده در میان آمریکایی‌ها وجود دارد. تقریباً ۶۸ درصد نسبت به سال گذشته نگرانی های شدیدی در مورد دیپ فیک ها ابراز کردند و ۳۳ درصد از آنها از برخورد یا اطلاع از کلاهبرداری های دیپ فیک خبر دادند.

مهمترین نگرانی های مشترک در مورد نحوه استفاده از دیپ فیک شامل تأثیرگذاری بر انتخابات (۵۲%) است.
زورگویی سایبری (۴۴%)، تضعیف اعتماد عمومی به رسانه ها (۴۸%)، جعل هویت از شخصیت های عمومی (۴۹%)،
ایجاد محتوای مستهجن جعلی (۳۷%)، تحریف حقایق تاریخی (۴۳%)، و گرفتار شدن در دام کلاهبرداری
به کلاهبرداران سایبری اجازه می دهد تا پرداخت یا اطلاعات شخصی را به دست آورند (۱۶٪).

“نگرانی زیادی وجود دارد که مردم در چرخه انتخابات آینده در معرض محتوای جعلی عمیق قرار گیرند. و من فکر می کنم یکی از چیزهایی که اغلب به اشتباه توصیف می شود این است که هوش مصنوعی چیست. و اغلب به عنوان هوش مصنوعی در مورد داشتن رایانه نشان داده می شود. کارهایی را انجام دهید که به طور سنتی توسط انسان ها انجام می شد. اما از بسیاری جهات، هوش مصنوعی سال ۲۰۲۴ این است که هوش مصنوعی کارها را بهتر از انسان ها انجام دهد.

او گفت که سوال این است که چگونه می توانیم تفاوت بین یک جو بایدن واقعی یا یک جو بایدن دروغین یا همان چیزی را برای دونالد ترامپ تشخیص دهیم.

او گفت: «ما هوش مصنوعی پیشرفته‌ای می‌سازیم که می‌تواند ویژگی‌های خرد را که ممکن است حتی برای انسان غیرقابل تشخیص باشد، شناسایی کند. در طول فصل سیاسی، لزوماً استفاده از هوش مصنوعی مولد برای ساخت تبلیغات کمپین، غیرقانونی یا حتی غیراخلاقی نیست. بر اساس صدا یا تصویر واقعی است.

نمونه خبری MSNBC یک مجری مناظره از NBC News را نشان داد که در مورد نامزدهای ریاست جمهوری جمهوری خواه صحبت می کرد. در ابتدا، ویدیو و صوتی قانونی است. اما سپس به یک نسخه جعلی از صدای او تبدیل می شود که همه نامزدها را مورد تحقیر قرار می دهد و دونالد ترامپ را تمجید می کند. از مواد دیپ فیک در این مورد برای ایجاد چیزی خنده دار و خنده دار استفاده شد.

گروبمن گفت: «در حالی که او شروع به توصیف دیدگاه متناقض نامزدها می کند، از صدای واقعی (مدیریت) به صدای جعلی او تغییر می کنند. اگر ارزیابی کلی این صدا را با مدل ما انجام دهید، به وضوح می‌بینید که برخی از بخش‌هایی وجود دارد که مدل اطمینان بالایی دارد که بخش‌های جعلی از تراک صوتی وجود دارد. این یک مثال نسبتاً خوش خیم است.

اما به راحتی می‌توان آن را به‌عنوان یک دیپ‌فیک مهندسی کرد تا نشان دهد یک نامزد چیزی می‌گوید که واقعاً به اعتبار یک نامزد آسیب می‌زند. و این می تواند بینندگان را به نتیجه گیری اشتباه سوق دهد.

تشخیص چگونه کار می کند

گروبمن گفت McAfee داده های خام را از یک ویدیو می گیرد و آن را به یک مدل طبقه بندی می دهد، جایی که هدف آن تعیین اینکه آیا چیزی یکی از مجموعه ای از چیزها است یا خیر. McAfee برای یک دهه از این نوع هوش مصنوعی استفاده می‌کند که بدافزارها را شناسایی می‌کند یا محتوای وب‌سایت‌ها را شناسایی می‌کند، مانند اینکه آیا یک وب‌سایت برای اهداف سرقت هویت آن خطرناک است یا خیر. مک آفی به جای قرار دادن یک فایل در مدل، صدا یا تصویر را در مدل قرار می دهد و آن را برای ویژگی های خطرناک نمایش می دهد. سپس بر اساس آنچه مک آفی در مورد شناسایی محتوای جعلی یا واقعی به آن آموزش داده است، پیش بینی می کند که آیا هوش مصنوعی تولید شده است یا نه.

گروبمن گفت که این شرکت از هوش مصنوعی برای اسکن تلفن های همراه استفاده کرده است تا بفهمد آیا پیام های متنی از منابع قانونی هستند یا نه. همچنین در طول سال‌ها بر روی ارائه محافظت از وب روی پلتفرم‌های موبایل و رایانه شخصی تمرکز کرده است. اکنون مردم باید آموزش ببینند که ساخت دیپ فیک برای صدا و تصویر چقدر آسان است.

او گفت: “ما نیاز داریم که مصرف کنندگان شک و تردید سالمی داشته باشند که اگر چیزی درست به نظر نمی رسد، حداقل این احتمال وجود دارد که هوش مصنوعی تولید شده باشد یا واقعی نباشد.” و سپس برخورداری از فناوری از شرکای قابل اعتمادی مانند McAfee برای کمک به آنها در شناسایی و کشف مواردی که ممکن است چندان واضح نباشند، مردم را قادر می‌سازد تا زندگی دیجیتالی خود را ایمن داشته باشند.

Project Mockingbird فراتر از آزمایش رفته است و McAfee در حال ساختن بلوک های اصلی فناوری است که در سراسر خط تولید استفاده خواهد شد.

عقیده GamesBeat وقتی صنعت بازی را پوشش می دهد “جایی که اشتیاق با تجارت روبرو می شود.” این یعنی چی؟ ما می خواهیم به شما بگوییم که اخبار چقدر برای شما اهمیت دارد — نه فقط به عنوان یک تصمیم گیرنده در یک استودیوی بازی، بلکه به عنوان یک طرفدار بازی. خواه مقالات ما را می خوانید، به پادکست های ما گوش می دهید یا ویدیوهای ما را تماشا می کنید، GamesBeat به شما کمک می کند تا در مورد صنعت بیاموزید و از تعامل با آن لذت ببرید. جلسات توجیهی ما را کشف کنید.


منبع: https://venturebeat.com/ai/mcafee-unveils-project-mockingbird-to-stop-ai-voice-clone-scams/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *