تهدید فزاینده نقض داده ها در عصر هوش مصنوعی و حریم خصوصی داده ها

تهدید فزاینده نقض داده ها در عصر هوش مصنوعی و حریم خصوصی داده ها

ناشناخته نیست که هوش مصنوعی (AI) کمک قابل توجهی به نوآوری در داخل کرده است امنیت سایبری صنعت. هوش مصنوعی مزایای افزایش یافته ای را به موارد موجود ارائه می دهد امنیت زیرساخت به دلیل توانایی آن در خودکارسازی وظایف، شناسایی تهدیدات و تجزیه و تحلیل مجموعه‌ای از داده‌ها. به طور خاص، می‌توان از آن برای شناسایی گرایش‌ها در حملات فیشینگ استفاده کرد و در شناسایی خطاهای مهم کدگذاری که به دلیل نظارت انسان از دست رفته است، مؤثر است. این فناوری همچنین می تواند مفاهیم فنی پیچیده را ساده کند و حتی اسکریپت و کد انعطاف پذیر را توسعه دهد. در نهایت، کمک به دور نگه داشتن مجرمان سایبری.

با این حال، هوش مصنوعی یک شمشیر دو لبه است، زیرا بازیگران بد نیز به این ابزارها دسترسی دارند و می توانند از آنها برای اهداف مخرب استفاده کنند. پس از اجلاس اخیر ایمنی هوش مصنوعی در بریتانیا، سوالاتی پیرامون هوش مصنوعی و تاثیر آن بر داده ها مطرح شد حریم خصوصی بیش از هر زمان دیگری تحت فشار قرار گرفته اند. همانطور که فناوری در زمان واقعی تکامل می‌یابد، ترس پیرامون هوش مصنوعی نیز افزایش می‌یابد زیرا پیش‌بینی چگونگی ادامه توسعه آن در آینده دشوار می‌شود.

سیستم های مجهز به هوش مصنوعی تا حد زیادی به پرسنل متکی هستند داده ها برای یادگیری و پیش بینی، ایجاد نگرانی در مورد جمع آوری، پردازش و ذخیره چنین داده هایی. با دسترسی آسان به ابزارهای هوش مصنوعی مانند چت ربات ها و تولیدکننده‌های تصویر، تاکتیک‌هایی مانند استفاده از فناوری دیپ‌فیک برای دور زدن مقررات حفظ حریم خصوصی داده‌ها در حال رایج‌تر شدن است. در واقع، تحقیقات اخیر از Trellix نشان داده است که هوش مصنوعی و ادغام مدل‌های زبان بزرگ (LLMs)، استراتژی‌های مهندسی اجتماعی مورد استفاده بازیگران بد را به شدت تغییر می‌دهد.

با پذیرش سریع هوش مصنوعی توسط مجرمان سایبری، سازمان‌ها باید برای جلوگیری از قربانی شدن این حملات و از دست دادن داده‌های حیاتی، جلوتر باشند. بنابراین چگونه سازمان ها می توانند این کار را انجام دهند؟

استفاده مخرب از هوش مصنوعی Generative

اینترنت مملو از ابزارهایی است که از هوش مصنوعی برای آسان‌تر کردن زندگی مردم استفاده می‌کنند. برخی از این ابزارها عبارتند از ChatGPTهوش مصنوعی Bard یا Perplexity که دارای مکانیسم های امنیتی برای جلوگیری از نوشتن کدهای مخرب توسط ربات چت است.

با این حال، این مورد برای همه ابزارها، به ویژه ابزارهایی که در وب تاریک توسعه می یابند، صدق نمی کند. در دسترس بودن این ابزارها منجر به ظهور «Script Kiddies» شده است. اینها افرادی هستند که تخصص فنی کمی ندارند و از ابزارها یا اسکریپت های خودکار از قبل موجود برای راه اندازی حملات سایبری استفاده می کنند. مهم است که آنها به عنوان آماتورهای غیر ماهر نادیده گرفته نشوند، زیرا ظهور هوش مصنوعی فقط اجرای حملات پیچیده را برای آنها آسان تر می کند.

واضح است که هوش مصنوعی امروزی برنامه های کاربردی ارائه ابزارهای قدرتمند و مقرون به صرفه برای هکرها، که نیاز به تخصص گسترده، زمان و منابع دیگر را از بین می برد. پیشرفت‌های اخیر در هوش مصنوعی منجر به ظهور مدل‌های زبان بزرگ (LLM) شده است که می‌تواند متون انسان‌مانند تولید کند. مجرمان سایبری می‌توانند از ابزارهای LLM برای بهبود مراحل کلیدی یک کمپین فیشینگ موفق با جمع‌آوری اطلاعات پس‌زمینه، استخراج داده‌ها برای تولید محتوای مناسب استفاده کنند. این امر باعث می شود که این عوامل تهدید به راحتی فیشینگ ایجاد کنند ایمیل ها سریع و در مقیاس با هزینه های حاشیه ای کم.

نفوذ به مشاغل از طریق کلاهبرداری صوتی هوش مصنوعی

تحقیقات اخیر ما نشان می‌دهد که تاکتیک‌های مهندسی اجتماعی بر اساس ۴۵ درصد از سازمان‌های دولتی بریتانیا، علت شماره یک حملات سایبری بزرگ هستند. مجرمان سایبری به طور فزاینده ای به فناوری روی می آورند تا مهندسی اجتماعی را خودکار کنند و از ربات ها برای جمع آوری داده ها و فریب قربانیان برای به اشتراک گذاشتن اطلاعات حساس مانند یک بار مصرف استفاده کنند. رمزهای عبور. صداهای تولید شده توسط هوش مصنوعی نقش بزرگی در این امر ایفا می کنند.

این کلاهبرداری‌های صوتی با هوش مصنوعی الگوهای گفتار انسان را تقلید می‌کنند و تشخیص صداهای واقعی و جعلی را دشوار می‌کنند. این رویکرد نیاز به دخالت گسترده انسان را کاهش می دهد و آثار پس از حمله را به حداقل می رساند.

کلاهبرداران از این صداها در کنار تکنیک های دستکاری روانی برای فریب دادن افراد استفاده می کنند. آنها اعتماد و فوریت را در قربانیان خود ایجاد می کنند و آنها را مستعد دستکاری می کنند. در گزارش تهدید نوامبر خود، متوجه شدیم که صداهای Al-generated را می‌توان برای صحبت به چندین زبان برنامه‌ریزی کرد و به کلاهبرداران اجازه می‌دهد قربانیان را در مناطق مختلف جغرافیایی و زمینه‌های زبانی هدف قرار دهند.

در نتیجه، حملات فیشینگ و ویشینگ همچنان افزایش می‌یابد زیرا عوامل تهدید از این تاکتیک‌ها در تماس‌های تلفنی زنده برای دستکاری کسب‌وکارها برای به اشتراک گذاشتن داده‌های شرکت استفاده می‌کنند. در میان تهدیدات فیشینگ که همیشه در حال تحول هستند، سازمان ها باید یک قدم جلوتر از مجرمان سایبری باقی بمانند یا در خطر سوء استفاده از سیستم، کارمندان و داده های ارزشمند خود برای تهدیدات قرار بگیرند.

تیم های امنیتی باید محیط های تهدید انعطاف پذیرتری بسازند

سازمان‌ها باید خودشان از هوش مصنوعی استفاده کنند، نه تنها برای محافظت مجدد از تاکتیک‌های هوش مصنوعی که توسط مجرمان سایبری استفاده می‌شود، بلکه برای بهره‌گیری از مزایایی که در فرآیندهای روزمره خواهد داشت. هوش مصنوعی را می توان برای افزایش کارایی و بهره وری عملیاتی، ادغام در فرآیند تصمیم گیری استفاده کرد و به سازمان ها کمک می کند تا در چشم انداز به سرعت در حال تحول رقابتی باقی بمانند.

با توجه به این که این حملات سایبری مبتنی بر هوش مصنوعی می تواند شناسایی آنها را برای سازمان ها به طور فزاینده ای دشوار کند، به طور فزاینده ای مهم است که آنها فناوری مناسبی را که می تواند این تهدیدها را پیش بینی و به آنها پاسخ دهد، پیاده سازی کنند. اینجاست که اجرای راه حل تشخیص و پاسخ گسترده (XDR) کلیدی است.

XDR، در یک سطح اساسی، تشخیص و پاسخ تهدید را متحول می کند. تحقیقات ما نشان داد که در صورت نقض داده‌ها، ۴۴ درصد از CISO معتقدند که XDR می‌تواند به شناسایی و اولویت‌بندی هشدارهای حیاتی کمک کند، ۳۷ درصد دریافتند که می‌تواند بررسی‌های تهدید را تسریع کند و ۳۳ درصد هشدارهای تهدید مثبت کاذب کمتری دارند. همچنین به تیم‌های امنیتی اجازه می‌دهد تا دید بهتری در سطح وسیع‌تر حمله تهدید و اولویت‌بندی واضح‌تر خطرات داشته باشند. در نتیجه، از CISOهای جهانی که با نقض داده‌ها برخورد کردند، ۷۶ درصد موافقند که اگر XDR داشتند، حادثه مهم امنیت سایبری تأثیر کمتری داشت.

ماندن در صدر هوش مصنوعی در عصر حریم خصوصی داده ها

به طور کلی، سازمان ها باید با احتیاط به هوش مصنوعی نزدیک شوند. بر کسی پوشیده نیست که مزایای آن از طریق ساده سازی مفاهیم فنی پیچیده، روش کار مردم را متحول کرده است، اما به دلیل ماهیت دوگانه آن، باید در اجرای آن دقت کرد. مجرمان سایبری با هوش مصنوعی غریبه نیستند و اخیراً از آن برای دستکاری و ایجاد داده های جعلی برای ایجاد سردرگمی یا جعل هویت مقامات مانند حملات اخیر Booking.com استفاده می کنند.

برای جلوگیری از قربانی شدن این حملات هوش مصنوعی، کسب‌وکارها باید از چشم‌انداز امنیت سایبری در حال تکامل استقبال کنند و روی روش‌هایی سرمایه‌گذاری کنند که در برابر حملات سایبری پیچیده دفاع می‌کنند. با ترکیبی از فناوری‌ها، استعدادها و تاکتیک‌های مناسب، تیم‌های عملیات امنیتی (SecOps) به خوبی برای کاهش تهدیدات سایبری سازمان خود مجهز خواهند شد.

ما بهترین نرم افزار رمزگذاری را معرفی کرده ایم.

این مقاله به عنوان بخشی از کانال Expert Insights TechRadarPro تهیه شده است که در آن بهترین و باهوش ترین ذهن ها در صنعت فناوری امروز را معرفی می کنیم. نظرات بیان شده در اینجا نظرات نویسنده است و لزوماً نظرات TechRadarPro یا Future plc نیست. اگر علاقه مند به مشارکت هستید، در اینجا اطلاعات بیشتری کسب کنید: https://www.techradar.com/news/submit-your-story-to-techradar-pro


منبع: https://www.techradar.com/pro/the-growing-threat-of-data-breaches-in-the-age-of-ai-and-data-privacy

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *