ظهور FraudGPT: کلاهبرداری های فیشینگ به مهندسی اجتماعی، نحوه استفاده کلاهبرداران از چت ربات جدید هوش مصنوعی

ظهور FraudGPT: کلاهبرداری های فیشینگ به مهندسی اجتماعی، نحوه استفاده کلاهبرداران از چت ربات جدید هوش مصنوعی

در طول مجمع سالانه اقتصاد جهانی در داووس، رهبران امنیت سایبری برای بحث در مورد چالش های فزاینده ای که سازمان های مجری قانون در سطح جهان با آن مواجه هستند، گرد هم آمدند. یورگن استاک، دبیرکل اینترپل، بر موانع مداوم ناشی از فناوری های پیشرفته مانند هوش مصنوعی (AI) و دیپ فیک تاکید کرد.

استاک تاکید کرد که سازمان های مجری قانون به دلیل افزایش حجم جرایم سایبری با بحران دست و پنجه نرم می کنند. علیرغم تلاش‌ها برای افزایش آگاهی در مورد کلاهبرداری، استوک خاطرنشان کرد که تعداد فزاینده‌ای از موارد همچنان در حال ظهور هستند.

وی تصریح کرد: “نیروهای انتظامی جهانی با حجم انبوه جرایم مرتبط با سایبری دست و پنجه نرم می کنند. کلاهبرداری با تمام دستگاه هایی که اینترنت ارائه می دهد در حال ورود به بعد جدیدی است. جرم فقط یک جهت را می شناسد، به سمت بالا. هر چه بیشتر آگاهی را افزایش دهیم، بیشتر می شود. مواردی که شما کشف می کنید. بیشتر پرونده ها جنبه بین المللی دارند.”

در طول بحث‌ها، پنل به حوزه فناوری، از جمله FraudGPT – تکرار شرورانه چت ربات محبوب هوش مصنوعی ChatGPT پرداخت. استوک فاش کرد که مجرمان سایبری خود را بر اساس تخصص در یک شبکه زیرزمینی سازماندهی می‌کنند، که با یک سیستم رتبه‌بندی کامل می‌شود که قابلیت اطمینان خدمات آنها را افزایش می‌دهد.

FraudGPT یک ربات چت هوش مصنوعی است که از مدل های تولیدی برای تولید متن قانع کننده و منسجم استفاده می کند. از مدل‌های زبانی استفاده می‌کند که بر روی داده‌های متنی گسترده آموزش دیده‌اند تا پاسخ‌هایی شبیه انسان به درخواست‌های کاربر ایجاد کند.

مجرمان سایبری از FraudGPT برای اهداف مخرب مختلف از جمله کلاهبرداری های فیشینگ، مهندسی اجتماعی، توزیع بدافزار و فعالیت های کلاهبرداری استفاده می کنند.

کلاهبرداری فیشینگ: FraudGPT این قابلیت را دارد که ایمیل‌های فیشینگ، پیام‌های متنی یا وب‌سایت‌هایی که واقعی به نظر می‌رسند تولید کند و کاربران را فریب دهد تا جزئیات حساسی مانند اعتبار ورود به سیستم، اطلاعات مالی یا داده‌های شخصی را افشا کنند.

مهندسی اجتماعی: با استفاده از مکالمه شبیه انسان، FraudGPT می‌تواند تعاملات واقعی را تقلید کند تا با افراد ناآگاه اعتماد ایجاد کند و در نهایت آنها را متقاعد کند که اطلاعات حساس را سهوا به اشتراک بگذارند یا در فعالیت‌های مضر شرکت کنند.

توزیع بدافزار: با ایجاد پیام های فریبنده، FraudGPT کاربران را ترغیب می کند تا روی پیوندهای مخرب کلیک کنند یا پیوست های مضر را دانلود کنند و در نتیجه دستگاه های آنها از طریق آلوده شدن به بدافزار به خطر بیفتد.

فعالیت های متقلبانه: FraudGPT با استفاده از قابلیت‌های هوش مصنوعی خود به هکرها در ایجاد اسناد، فاکتورها یا درخواست‌های پرداخت جعلی کمک می‌کند و افراد و مشاغل را در دام کلاهبرداری‌های مالی گرفتار می‌کند.

خطرات مرتبط با هوش مصنوعی در امنیت سایبری نیز در طول بحث مورد تاکید قرار گرفت. در حالی که هوش مصنوعی نقش مهمی در تقویت ابزارهای امنیت سایبری ایفا کرده است، به طور همزمان خطراتی را معرفی کرده است.

استوک اشاره کرد که حتی افراد با دانش فنی محدود هم اکنون می توانند حملات انکار سرویس توزیع شده (DDoS) را انجام دهند و دامنه تهدیدات سایبری را گسترش دهند. انتظار می رود افزایش قیمت و دسترسی به ابزارهای هوش مصنوعی خطرات امنیت سایبری را تشدید کند.


منبع: https://www.firstpost.com/tech/the-rise-of-fraudgpt-phishing-scams-to-social-engineering-how-scammers-are-using-new-ai-chatbot-13634582.html

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *