اگر در سال گذشته متوجه افزایش ایمیل های مشکوک شده اید، ممکن است تا حدی به دلیل یکی از ربات های گفتگوی هوش مصنوعی مورد علاقه ما باشد – ChatGPT. من می دانم – بسیاری از ما گفتگوهای صمیمی و خصوصی داشته ایم که در آن در مورد خودمان با ChatGPT یاد گرفته ایم، و نمی خواهیم باور کنیم که ChatGPT به کلاهبرداری از ما کمک می کند.
به گفته شرکت امنیت سایبری SlashNextChatGPT و گروه های هوش مصنوعی آن در حال استفاده هستند برای پمپ کردن ایمیل های فیشینگ با نرخ تسریع شده این گزارش بر اساس تخصص تهدید این شرکت است و بیش از سیصد متخصص امنیت سایبری را در آمریکای شمالی مورد بررسی قرار داده است. یعنی، ادعا میشود که ایمیلهای فیشینگ مخرب از سه ماهه چهارم سال ۲۰۲۲ تا ۱۲۶۵ درصد افزایش یافته است – بهویژه فیشینگ اعتبار که ۹۶۷ درصد افزایش یافته است. شخص، گروه یا سازمان مورد اعتماد از طریق ایمیل یا کانال ارتباطی مشابه.
بازیگران مخرب از ابزارهای هوش مصنوعی مولد مانند ChatGPT برای نوشتن پیام های فیشینگ صیقلی و هدفمند استفاده می کنند. و همچنین فیشینگ پیام های سازش ایمیل تجاری (BEC). یکی دیگر از انواع رایج کلاهبرداری های سایبری با هدف کلاهبرداری مالی از شرکت ها است. این گزارش نتیجهگیری میکند که این تهدیدات مبتنی بر هوش مصنوعی با سرعت سرسامآوری افزایش مییابند، حجم و پیچیدگی آنها به سرعت در حال افزایش است.
این گزارش نشان می دهد که حملات فیشینگ به طور متوسط ۳۱۰۰۰ در روز بوده و تقریباً نیمی از متخصصان امنیت سایبری مورد بررسی گزارش داده اند که یک حمله BEC دریافت کرده اند. وقتی صحبت از فیشینگ به میان می آید، ۷۷ درصد از این متخصصان گزارش دادند که حملات فیشینگ دریافت کرده اند.
کارشناسان وزن می کنند
مدیر عامل SlashNext، پاتریک هار، انتقال داد که این یافته ها “نگرانی ها را در مورد استفاده از هوش مصنوعی مولد که به رشد تصاعدی فیشینگ کمک می کند، تقویت می کند.” او توضیح داد که فناوری مولد هوش مصنوعی مجرمان سایبری را قادر میسازد تا حملات را با چه سرعتی توربوشارژ کنند و در عین حال تنوع حملات خود را افزایش دهند. آنها می توانند هزاران حمله مهندسی شده اجتماعی را با هزاران تنوع ایجاد کنند – و شما فقط باید به یکی از آنها بیفتید.
هار در ادامه به ChatGPT اشاره می کند که در پایان سال گذشته شاهد رشد چشمگیری بود. او معتقد است که رباتهای هوش مصنوعی مولد ورود به بازی فیشینگ و کلاهبرداری را برای تازهکاران بسیار آسانتر کردهاند و اکنون به ابزاری اضافی در زرادخانه افراد ماهر و با تجربهتر تبدیل شدهاند – که اکنون میتوانند حملات خود را افزایش داده و حملات خود را بیشتر هدف قرار دهند. به آسانی. این ابزارها میتوانند به تولید پیامهای قانعکنندهتر و قانعکنندهتر کمک کنند که کلاهبرداران امیدوارند افراد را به درستی فیش کنند.
کریس استفن، مدیر تحقیقات در Enterprise Management Associates، این موضوع را تایید کرد هنگامی که با CNBC صحبت می کرد، گفت: “روزهای “شاهزاده نیجریه” گذشته است”. او ادامه داد که ایمیلها اکنون “بسیار قانعکننده و مشروع هستند”. بازیگران بد به طرز متقاعدکنندهای از دیگران تقلید میکنند و با لحن و سبک خود جعل هویت میکنند، یا حتی مکاتباتی با ظاهر رسمی ارسال میکنند که به نظر میرسد از سوی سازمانهای دولتی و ارائهدهندگان خدمات مالی است. آنها می توانند با استفاده از ابزارهای هوش مصنوعی این کار را بهتر از قبل انجام دهند تا نوشته ها و اطلاعات عمومی افراد یا سازمان ها را تجزیه و تحلیل کنند تا پیام های آنها را تنظیم کنند و ایمیل ها و ارتباطات آنها را شبیه به واقعی کنند.
علاوه بر این، شواهدی وجود دارد که نشان میدهد این استراتژیها در حال حاضر شاهد بازدهی برای بازیگران بد هستند. حر اشاره به گزارش جنایات اینترنتی FBI، جایی که گفته می شود حملات BEC حدود ۲٫۷ میلیارد دلار به همراه ۵۲ میلیون دلار ضرر به دلیل سایر انواع فیشینگ به کسب و کارها خسارت وارد کرده است. Motherlode سودآور است و کلاهبرداران انگیزه بیشتری برای افزایش تلاشهای فیشینگ و BEC خود دارند.
آنچه برای براندازی تهدیدها لازم است
برخی از کارشناسان و غول های فناوری به عقب راندن، با آمازون، گوگل، متا و مایکروسافت متعهد شده اند که آزمایشاتی را برای مبارزه با خطرات امنیت سایبری انجام خواهند داد.. شرکت ها همچنین از هوش مصنوعی به صورت دفاعی استفاده می کنند و از آن برای بهبود سیستم های تشخیص، فیلترها و موارد دیگر استفاده می کنند. هار تکرار کرد که تحقیقات SlashNext، با این حال، تأکید می کند که این کاملاً تضمین شده است زیرا مجرمان سایبری در حال حاضر از ابزارهایی مانند ChatGPT برای اجرای این حملات استفاده می کنند.
SlashNext در ماه جولای یک BEC خاص پیدا کرد که از ChatGPT به همراه WormGPT استفاده می کرد. WormGPT یک ابزار جرایم سایبری است طبق گفته هار، که به عنوان “یک جایگزین کلاه سیاه برای مدل های GPT، که به طور خاص برای فعالیت های مخرب مانند ایجاد و راه اندازی حملات BEC طراحی شده است” تبلیغ می شود. ربات چت مخرب دیگری به نام FraudGPT نیز گزارش شده است که در حال گردش است. هار می گوید که FraudGPT به عنوان یک ابزار “انحصاری” برای کلاهبرداران، هکرها، ارسال کنندگان هرزنامه و افراد مشابه تبلیغ شده است و دارای لیست گسترده ای از ویژگی ها است.
بخشی از تحقیقات SlashNext در مورد توسعه “jailbreak” هوش مصنوعی بوده است که حملات بسیار هوشمندانه ای به چت ربات های هوش مصنوعی طراحی شده است که وقتی وارد شوند باعث حذف نرده های ایمنی و قانونی چت ربات های هوش مصنوعی می شوند. این همچنین یک حوزه اصلی تحقیق در بسیاری از موسسات تحقیقاتی مرتبط با هوش مصنوعی است.
شرکت ها و کاربران چگونه باید اقدام کنند
اگر احساس میکنید که این میتواند تهدیدی جدی از نظر حرفهای یا شخصی باشد، حق با شماست – اما همه چیز ناامیدکننده نیست. کارشناسان امنیت سایبری راههایی را برای مقابله و پاسخ به این حملات ارائه میکنند. یکی از اقداماتی که بسیاری از شرکتها انجام میدهند، آموزش مداوم و آموزش کاربر نهایی است تا ببینند آیا کارمندان و کاربران واقعاً توسط این ایمیلها گرفتار شدهاند یا خیر.
افزایش حجم ایمیلهای مشکوک و هدفمند به این معنی است که یادآوری اینجا و آنجا دیگر کافی نیست، و شرکتها اکنون باید بهطور مداوم برای ایجاد آگاهی امنیتی در میان کاربران تمرین کنند. همچنین نه تنها باید به کاربران نهایی یادآوری شود، بلکه باید تشویق شوند که ایمیلهایی را که تقلبی به نظر میرسند گزارش کنند و در مورد نگرانیهای مربوط به امنیت خود بحث کنند. این نه تنها در مورد شرکت ها و امنیت سراسری شرکت، بلکه برای ما به عنوان کاربران فردی نیز صدق می کند. اگر غولهای فناوری از ما میخواهند که به خدمات ایمیل آنها برای نیازهای ایمیل شخصیمان اعتماد کنیم، باید به ایجاد دفاعیات خود به این روشها ادامه دهند.
علاوه بر این تغییر سطح فرهنگ در مشاغل و شرکتها، استفن همچنین بر اهمیت ابزارهای فیلتر ایمیل که میتوانند قابلیتهای هوش مصنوعی را در خود جای داده و حتی از ارسال پیامهای مخرب به کاربران جلوگیری کنند، تاکید میکند. این یک نبرد همیشگی است که نیاز به آزمایشها و ممیزیهای منظم دارد، زیرا تهدیدها همیشه در حال تکامل هستند و با بهبود تواناییهای نرمافزار هوش مصنوعی، تهدیدهایی که از آنها استفاده میکنند نیز بهبود خواهند یافت.
شرکت ها باید سیستم های امنیتی خود را بهبود بخشند و هیچ راه حل واحدی نمی تواند به طور کامل تمام خطرات ناشی از حملات ایمیل های تولید شده توسط هوش مصنوعی را برطرف کند. استفن بیان میکند که یک استراتژی اعتماد صفر میتواند به پر کردن شکافهای کنترلی ناشی از حملات کمک کند و به ارائه دفاعی برای اکثر سازمانها کمک کند. کاربران فردی باید نسبت به احتمال فیش شدن و فریب خوردن هوشیارتر باشند، زیرا افزایش یافته است.
بدبینی نسبت به این نوع مسائل می تواند آسان باشد، اما ما میتوانیم نسبت به چیزی که انتخاب میکنیم روی آن کلیک کنیم بیشتر محتاط باشیم. یک لحظه بیشتر وقت بگذارید، سپس یک لحظه دیگر، و تمام اطلاعات را بررسی کنید – حتی می توانید آدرس ایمیلی را که ایمیل خاصی از آن دریافت کرده اید جستجو کنید و ببینید آیا شخص دیگری در ارتباط با آن مشکل داشته است یا خیر. این یک دنیای آینه ای پیچیده آنلاین است، و به طور فزاینده ای ارزش دارد که عقل خود را در مورد شما حفظ کنید.
شما هم ممکن است دوست داشته باشید
منبع: https://www.techradar.com/pro/security/cybercriminals-are-exploiting-ai-tools-like-chatgpt-to-craft-more-convincing-phishing-attacks-alarming-cybersecurity-experts