به گفته مجرمان سایبری، هوش مصنوعی و ChatGPT ترسناک هستند

بسیاری از مجرمان سایبری در مورد استفاده از آن تردید دارند ابزارهای مبتنی بر هوش مصنوعی مانند ChatGPT برای خودکارسازی کمپین های مخرب خود.

تحقیقات جدید Sophos به دنبال سنجش منافع مجرمان سایبری با تجزیه و تحلیل انجمن‌های وب تاریک بود. ظاهراً ابزارهای حفاظتی زیادی در ابزارهایی مانند ChatGPT وجود دارد که مانع از خودکارسازی هکرها برای ایجاد صفحات فرود مخرب، ایمیل های فیشینگ، کدهای بدافزار و غیره می شود.

این امر هکرها را مجبور به انجام دو کار کرد: سعی کنید حساب‌های برتر ChatGPT را به خطر بیاندازید (که همانطور که تحقیقات نشان می‌دهد با محدودیت‌های کمتری همراه است) یا چرخش به سمت مشتقات GhatGPT – شبیه‌سازی شده نویسندگان هوش مصنوعی که هکرها برای دور زدن پادمان ها ساخته اند.

به گفته مجرمان سایبری، هوش مصنوعی و ChatGPT ترسناک هستند

پیشنهاد خواننده: گیفت کارت آمازون ۵۰ دلاری با نسخه نمایشی
محافظت از بدافزار Perimeter 81 تهدیدها را در مرحله تحویل رهگیری می کند تا از بدافزارهای شناخته شده، حملات چند شکلی، سوء استفاده های روز صفر و موارد دیگر جلوگیری کند. به افراد خود اجازه دهید آزادانه از وب بدون به خطر انداختن امنیت داده و شبکه استفاده کنند.

شریک ترجیحیاین یعنی چی؟)

نتایج ضعیف و شک و تردید فراوان

اما بسیاری از مشتقات محتاط هستند، زیرا می ترسند که آنها فقط برای فریب آنها ساخته شده باشند.

بن گلمن، دانشمند ارشد داده، Sophos می گوید: «در حالی که از زمان انتشار ChatGPT نگرانی قابل توجهی در مورد سوء استفاده از AI و LLM توسط مجرمان سایبری وجود داشته است، تحقیقات ما نشان داده است که تاکنون، عوامل تهدید بیشتر بدبین هستند تا مشتاق. در دو تا از چهار فروم در وب تاریک که بررسی کردیم، فقط ۱۰۰ پست در هوش مصنوعی پیدا کردیم.

کریستوفر باد، مدیر تحقیقات X-Ops Sophos گفت: در حالی که محققان تلاش‌هایی را برای ایجاد بدافزار یا سایر ابزارهای حمله با استفاده از چت‌بات‌های مجهز به هوش مصنوعی مشاهده کردند، نتایج “ابتدایی بود و اغلب با شک و تردید سایر کاربران روبرو می‌شد.”

“در یک مورد، یک بازیگر تهدید کننده که مشتاق به نمایش گذاشتن پتانسیل ChatGPT بود، به طور ناخواسته اطلاعات قابل توجهی در مورد هویت واقعی خود فاش کرد. ما حتی “تفکرات” متعددی در مورد اثرات منفی احتمالی هوش مصنوعی بر جامعه و پیامدهای اخلاقی استفاده از آن پیدا کردیم. به عبارت دیگر، حداقل در حال حاضر، به نظر می رسد که مجرمان سایبری مانند بقیه ما در مورد LLM بحث می کنند.”

بیشتر از TechRadar Pro


منبع: https://www.techradar.com/pro/security/ai-and-chatgpt-are-scary-according-to-cyber-criminals

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *