در بیانیه ای که روز چهارشنبه منتشر شد، غول فناوری مایکروسافت فاش کرد که تعدادی از دشمنان ایالات متحده از جمله ایران، کره شمالی، روسیه و چین استفاده از هوش مصنوعی مولد (AI) را برای سازماندهی عملیات سایبری تهاجمی آغاز کرده اند.
این شرکت که مقر آن در ردموند، واشنگتن است، فاش کرد که با همکاری شریک خود OpenAI، که از فناوری هوش مصنوعی توسعه یافته توسط این دشمنان استفاده کرده یا تلاش کرده است، تهدیدها را شناسایی کرده و خنثی کرده است.
بر اساس یک پست وبلاگ، مایکروسافت این تکنیک ها را “مرحله اولیه” و نه به ویژه نوآورانه توصیف کرد، اما بر اهمیت افشای عمومی آنها تأکید کرد. این اقدام در حالی صورت میگیرد که کشورهای رقیب به طور فزایندهای از مدلهای زبان بزرگ (LLM) برای تقویت قابلیتهای خود در نفوذ به شبکهها و اجرای عملیات نفوذ استفاده میکنند.
در حالی که شرکتهای امنیت سایبری به طور سنتی از یادگیری ماشینی برای اهداف دفاعی استفاده میکنند، ظهور LLMها، به ویژه توسط ChatGPT OpenAI، بازی موش و گربه را بین مدافعان و بازیگران مخرب تشدید کرده است.
مایکروسافت با سرمایه گذاری قابل توجهی در OpenAI، همزمان با اعلام خود با انتشار گزارشی بر پتانسیل هوش مصنوعی مولد برای تقویت مهندسی اجتماعی مخرب، که منجر به دیپفیکهای پیچیدهتر و شبیهسازی صدا میشود، تاکید کرد. این یک تهدید جدی برای فرآیندهای دموکراتیک است، به ویژه در بحبوحه انتخابات آینده در بیش از ۵۰ کشور.
این گزارش مواردی را که مایکروسافت حسابهای هوش مصنوعی و داراییهای گروههای مختلف را غیرفعال کرده است، شرح میدهد. این شامل گروه جاسوسی سایبری کره شمالی Kimsuky میشود که از این مدلها برای تحقیق در اتاقهای فکر خارجی و کمپینهای هک فیشینگ نیزه استفاده میکرد.
سپاه پاسداران ایران نیز درگیر است که از LLM برای مهندسی اجتماعی، عیبیابی خطاهای نرمافزاری و مطالعه تاکتیکهای فرار از نفوذ شبکه استفاده میکند. واحد اطلاعات نظامی روسیه GRU Fancy Bear بر روی تحقیق در مورد فناوری های ماهواره ای و راداری مرتبط با درگیری در اوکراین متمرکز شد. گروههای جاسوسی سایبری چینی Aquatic Panda و Maverick Panda راههایی را برای تقویت عملیات فنی خود با استفاده از LLM بررسی کردند.
OpenAI در بیانیهای جداگانه اشاره کرد که چت ربات مدل GPT-4 فعلی آن، تواناییهای محدودی را برای وظایف مخرب امنیت سایبری فراتر از آنچه ابزارهای غیر هوش مصنوعی میتوانند به دست آورند، ارائه میدهد. با این حال، محققان امنیت سایبری پیشرفت هایی را در این زمینه پیش بینی می کنند.
جن ایسترلی، مدیر آژانس امنیت سایبری و امنیت زیرساخت ایالات متحده، قبلاً تهدیدات دوگانه چین و هوش مصنوعی را برجسته کرده و بر نیاز به توسعه هوش مصنوعی با در نظر گرفتن امنیت تأکید کرده است.
منتقدان استدلال می کنند که انتشار عمومی مدل های زبان بزرگ، از جمله ChatGPT، بدون توجه کافی به اقدامات امنیتی، عجولانه و غیرمسئولانه بود. برخی از متخصصان امنیت سایبری از مایکروسافت میخواهند که به جای فروش ابزارهای دفاعی برای رفع آسیبپذیریها، بر تقویت امنیت LLM تمرکز کند.
کارشناسان هشدار میدهند که اگرچه تهدید فوری از سوی هوش مصنوعی و LLM ممکن است آشکار نباشد، اما به طور بالقوه میتوانند به سلاحهای قدرتمندی در زرادخانه هر ارتش دولت-ملت تبدیل شوند.
(با ورودی های نمایندگی ها)
منبع: https://www.firstpost.com/tech/microsoft-claims-chinese-russian-iranian-north-korean-hackers-are-using-its-gen-ai-tools-to-attack-the-us-13731612.html