مایکروسافت مدعی است هکرهای چینی، روسی، ایرانی و کره شمالی از ابزارهای هوش مصنوعی ژنرال این شرکت برای حمله به آمریکا استفاده می‌کنند

در بیانیه ای که روز چهارشنبه منتشر شد، غول فناوری مایکروسافت فاش کرد که تعدادی از دشمنان ایالات متحده از جمله ایران، کره شمالی، روسیه و چین استفاده از هوش مصنوعی مولد (AI) را برای سازماندهی عملیات سایبری تهاجمی آغاز کرده اند.

این شرکت که مقر آن در ردموند، واشنگتن است، فاش کرد که با همکاری شریک خود OpenAI، که از فناوری هوش مصنوعی توسعه یافته توسط این دشمنان استفاده کرده یا تلاش کرده است، تهدیدها را شناسایی کرده و خنثی کرده است.

بر اساس یک پست وبلاگ، مایکروسافت این تکنیک ها را “مرحله اولیه” و نه به ویژه نوآورانه توصیف کرد، اما بر اهمیت افشای عمومی آنها تأکید کرد. این اقدام در حالی صورت می‌گیرد که کشورهای رقیب به طور فزاینده‌ای از مدل‌های زبان بزرگ (LLM) برای تقویت قابلیت‌های خود در نفوذ به شبکه‌ها و اجرای عملیات نفوذ استفاده می‌کنند.

در حالی که شرکت‌های امنیت سایبری به طور سنتی از یادگیری ماشینی برای اهداف دفاعی استفاده می‌کنند، ظهور LLMها، به ویژه توسط ChatGPT OpenAI، بازی موش و گربه را بین مدافعان و بازیگران مخرب تشدید کرده است.

مایکروسافت با سرمایه گذاری قابل توجهی در OpenAI، همزمان با اعلام خود با انتشار گزارشی بر پتانسیل هوش مصنوعی مولد برای تقویت مهندسی اجتماعی مخرب، که منجر به دیپ‌فیک‌های پیچیده‌تر و شبیه‌سازی صدا می‌شود، تاکید کرد. این یک تهدید جدی برای فرآیندهای دموکراتیک است، به ویژه در بحبوحه انتخابات آینده در بیش از ۵۰ کشور.

این گزارش مواردی را که مایکروسافت حساب‌های هوش مصنوعی و دارایی‌های گروه‌های مختلف را غیرفعال کرده است، شرح می‌دهد. این شامل گروه جاسوسی سایبری کره شمالی Kimsuky می‌شود که از این مدل‌ها برای تحقیق در اتاق‌های فکر خارجی و کمپین‌های هک فیشینگ نیزه استفاده می‌کرد.

سپاه پاسداران ایران نیز درگیر است که از LLM برای مهندسی اجتماعی، عیب‌یابی خطاهای نرم‌افزاری و مطالعه تاکتیک‌های فرار از نفوذ شبکه استفاده می‌کند. واحد اطلاعات نظامی روسیه GRU Fancy Bear بر روی تحقیق در مورد فناوری های ماهواره ای و راداری مرتبط با درگیری در اوکراین متمرکز شد. گروه‌های جاسوسی سایبری چینی Aquatic Panda و Maverick Panda راه‌هایی را برای تقویت عملیات فنی خود با استفاده از LLM بررسی کردند.

OpenAI در بیانیه‌ای جداگانه اشاره کرد که چت ربات مدل GPT-4 فعلی آن، توانایی‌های محدودی را برای وظایف مخرب امنیت سایبری فراتر از آنچه ابزارهای غیر هوش مصنوعی می‌توانند به دست آورند، ارائه می‌دهد. با این حال، محققان امنیت سایبری پیشرفت هایی را در این زمینه پیش بینی می کنند.

جن ایسترلی، مدیر آژانس امنیت سایبری و امنیت زیرساخت ایالات متحده، قبلاً تهدیدات دوگانه چین و هوش مصنوعی را برجسته کرده و بر نیاز به توسعه هوش مصنوعی با در نظر گرفتن امنیت تأکید کرده است.

منتقدان استدلال می کنند که انتشار عمومی مدل های زبان بزرگ، از جمله ChatGPT، بدون توجه کافی به اقدامات امنیتی، عجولانه و غیرمسئولانه بود. برخی از متخصصان امنیت سایبری از مایکروسافت می‌خواهند که به جای فروش ابزارهای دفاعی برای رفع آسیب‌پذیری‌ها، بر تقویت امنیت LLM تمرکز کند.

کارشناسان هشدار می‌دهند که اگرچه تهدید فوری از سوی هوش مصنوعی و LLM ممکن است آشکار نباشد، اما به طور بالقوه می‌توانند به سلاح‌های قدرتمندی در زرادخانه هر ارتش دولت-ملت تبدیل شوند.

(با ورودی های نمایندگی ها)


منبع: https://www.firstpost.com/tech/microsoft-claims-chinese-russian-iranian-north-korean-hackers-are-using-its-gen-ai-tools-to-attack-the-us-13731612.html

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *