VentureBeat ارائه می دهد: AI Unleashed – یک رویداد اجرایی انحصاری برای رهبران داده های سازمانی. شبکه و یادگیری با همتایان صنعت. بیشتر بدانید
در طول یک سال گذشته، هوش مصنوعی جهان را در معرض طوفان قرار داده است، و برخی از آنها این سوال را رها کرده اند: آیا هوش مصنوعی لحظاتی دور از بردگی جمعیت انسان، آخرین مد فناوری، یا چیز بسیار ظریف تر است؟
این پیچیده است. از یک طرف، ChatGPT توانست قبولی در آزمون وکالت – که برای وکلا هم تاثیرگذار و هم شاید کمی شوم است. با این حال، برخی از شکاف ها در قابلیت های نرم افزار در حال حاضر آشکار می شوند، مانند زمانی که a وکیل در دادگاه از ChatGPT استفاده کرد و ربات ها عناصر استدلال های خود را ساختند.
هوش مصنوعی بدون شک به پیشرفت خود در توانایی های خود ادامه خواهد داد، اما هنوز سوالات بزرگی وجود دارد. چگونه بفهمیم که می توانیم به هوش مصنوعی اعتماد کنیم؟ از کجا بدانیم که خروجی آن نه تنها درست است، بلکه عاری از تعصب و سانسور است؟ داده هایی که مدل هوش مصنوعی بر روی آن آموزش می بیند از کجا می آید و چگونه می توان مطمئن بود که دستکاری نشده است؟
دستکاری سناریوهای پرخطری را برای هر مدل هوش مصنوعی ایجاد می کند، به ویژه آنهایی که به زودی برای ایمنی، حمل و نقل، دفاع و سایر مناطقی که جان انسان ها در خطر است استفاده می شود.
تأیید هوش مصنوعی: مقررات لازم برای هوش مصنوعی ایمن
در حالی که آژانس های ملی در سراسر جهان اذعان دارند که هوش مصنوعی به بخشی جدایی ناپذیر از فرآیندها و سیستم های ما تبدیل خواهد شد، این بدان معنا نیست که پذیرش باید بدون تمرکز دقیق اتفاق بیفتد.
دو سوال مهم که باید به آنها پاسخ دهیم عبارتند از:
- آیا یک سیستم خاص از مدل هوش مصنوعی استفاده می کند؟
- اگر از یک مدل هوش مصنوعی استفاده می شود، چه عملکردهایی می تواند فرمان/تاثیر بگذارد؟
اگر بدانیم که یک مدل برای هدف مورد نظر خود آموزش داده شده است، و دقیقاً بدانیم که در کجا مستقر شده است (و چه کاری می تواند انجام دهد)، تعداد قابل توجهی از خطرات ناشی از سوء استفاده از هوش مصنوعی را حذف کرده ایم.
وجود دارد بسیاری از روش های مختلف برای تأیید هوش مصنوعی، از جمله بازرسی سخت افزار، بازرسی سیستم، تأیید پایدار و تجزیه و تحلیل تشعشعات Van Eck.
بازرسیهای سختافزاری، بررسیهای فیزیکی عناصر محاسباتی هستند که برای شناسایی وجود تراشههای مورد استفاده برای هوش مصنوعی کار میکنند. در مقابل، مکانیسمهای بازرسی سیستم از نرمافزار برای تجزیه و تحلیل یک مدل، تعیین اینکه چه چیزی میتواند کنترل کند و هر عملکردی را که باید خارج از محدودیت باشد، علامتگذاری میکند، استفاده میکند.
این مکانیسم با شناسایی و جداسازی مناطق قرنطینه یک سیستم کار میکند – بخشهایی که به طور هدفمند برای محافظت از IP و اسرار مبهم شدهاند. این نرمافزار در عوض اجزای شفاف اطراف را بررسی میکند تا پردازشهای هوش مصنوعی مورد استفاده در سیستم را بدون نیاز به فاش کردن اطلاعات حساس یا IP شناسایی و پرچمگذاری کند.
روش های تأیید عمیق تر
مکانیسمهای تأیید پایدار پس از بازرسی اولیه اتفاق میافتند و اطمینان حاصل میکنند که پس از استقرار یک مدل، تغییر یا دستکاری نشده است. برخی از تکنیک های ضد دستکاری مانند هش رمزنگاری و مبهم سازی کد در خود مدل تکمیل می شوند.
هش رمزنگاری به بازرس اجازه میدهد تا تشخیص دهد که آیا وضعیت پایه یک سیستم تغییر کرده است، بدون اینکه دادهها یا کدهای اساسی را آشکار کند. روشهای مبهمسازی کد، که هنوز در مراحل اولیه توسعه هستند، کد سیستم را در سطح ماشین به هم میزنند تا توسط نیروهای خارجی نتوانند رمزگشایی شوند.
تجزیه و تحلیل تشعشعات ون اک به الگوی تشعشعات ساطع شده در حین کارکرد سیستم می پردازد. از آنجایی که سیستمهای پیچیده تعدادی فرآیند موازی را اجرا میکنند، تشعشع اغلب مخدوش میشود و استخراج کد خاص را دشوار میکند. با این حال، تکنیک ون اک می تواند تغییرات عمده را تشخیص دهد (مانند هوش مصنوعی جدید) بدون رمزگشایی هیچ گونه اطلاعات حساسی که توسعه دهندگان سیستم مایلند خصوصی نگه دارند.
داده های آموزشی: اجتناب از GIGO (زباله داخل، زباله بیرون)
مهمتر از همه، داده هایی که به یک مدل هوش مصنوعی وارد می شوند باید در منبع تأیید شوند. به عنوان مثال، چرا یک ارتش مخالف تلاش می کند ناوگان جت های جنگنده شما را نابود کند، در حالی که آنها می توانند داده های آموزشی مورد استفاده برای آموزش مدل هوش مصنوعی پردازش سیگنال جت های شما را دستکاری کنند؟ هر مدل هوش مصنوعی بر روی دادهها آموزش داده میشود – این نشان میدهد که مدل چگونه باید ورودی جدیدی را که ارائه میشود تفسیر، تجزیه و تحلیل و اقدام کند. در حالی که مقدار زیادی از جزئیات فنی در روند آموزش وجود دارد، به کمک هوش مصنوعی کمک می کند تا چیزی را همانطور که یک انسان درک می کند، درک کند. روند مشابه است و مشکلات نیز وجود دارد.
در حالت ایدهآل، ما میخواهیم مجموعه داده آموزشی ما نشان دهنده دادههای واقعی باشد که به آن داده میشود شما یک مدل دارید پس از آموزش و استقرار. به عنوان مثال، ما میتوانیم مجموعه دادهای از کارمندان گذشته با نمرات عملکرد بالا ایجاد کنیم و از آن ویژگیها برای آموزش یک مدل هوش مصنوعی استفاده کنیم که میتواند کیفیت یک نامزد کارمند بالقوه را با بررسی رزومه آنها پیشبینی کند.
در حقیقت، آمازون همین کار را کرد. نتیجه؟ به طور عینی، این مدل در انجام کاری که برای انجام آن آموزش دیده بود، موفقیت بزرگی داشت. خبر بد؟ داده ها به مدل یاد داده بود که جنسیت گرا باشد. اکثر کارمندان با عملکرد بالا در مجموعه داده ها مرد بودند، که می تواند شما را به دو نتیجه برساند: عملکرد مردان بهتر از زنان. یا به سادگی این که مردان بیشتری استخدام شدند و این داده ها را منحرف کرد. مدل هوش مصنوعی هوش لازم برای در نظر گرفتن دومی را ندارد و بنابراین مجبور بود اولی را فرض کند و وزن بیشتری به جنسیت یک نامزد بدهد.
قابلیت تأیید و شفافیت کلید ایجاد هوش مصنوعی ایمن، دقیق و اخلاقی است. کاربر نهایی باید بداند که مدل هوش مصنوعی بر روی داده های درست آموزش دیده است. استفاده از رمزنگاری دانش صفر برای اثبات اینکه داده ها دستکاری نشده اند، این اطمینان را ایجاد می کند که هوش مصنوعی از همان ابتدا بر روی مجموعه داده های دقیق و ضد دستکاری آموزش دیده است.
با نگاه به آینده
رهبران کسبوکار باید حداقل در سطح بالا بدانند که چه روشهای تأیید وجود دارد و چقدر در تشخیص استفاده از هوش مصنوعی، تغییرات در مدل و سوگیریها در دادههای آموزشی اصلی مؤثر هستند. شناسایی راه حل ها اولین قدم است. پلتفرمهایی که این ابزارها را میسازند، سپر حیاتی را برای هر کارمند ناراضی، جاسوس صنعتی/نظامی یا خطاهای ساده انسانی که میتواند مشکلات خطرناکی را در مدلهای هوش مصنوعی قدرتمند ایجاد کند، فراهم میکند.
در حالی که تأیید هر مشکلی را برای یک سیستم مبتنی بر هوش مصنوعی حل نمی کند، می تواند اطمینان حاصل کند که مدل AI همانطور که در نظر گرفته شده است کار می کند و توانایی آن برای تکامل غیرمنتظره یا دستکاری فوراً شناسایی می شود. . هوش مصنوعی به طور فزاینده ای در زندگی روزمره ما ادغام می شود، و بسیار مهم است که اطمینان حاصل کنیم که می توانیم به آن اعتماد کنیم.
اسکات دایکسترا یکی از بنیانگذاران و CTO است فضا و زمانو همچنین مشاور استراتژیک تعدادی از پایگاه داده ها و استارت آپ های فناوری Web3.
DataDecisionMakers
به انجمن VentureBeat خوش آمدید!
DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.
اگر میخواهید درباره ایدههای پیشرفته و اطلاعات بهروز، بهترین شیوهها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.
حتی ممکن است در نظر بگیرید مشارکت در مقاله از خودت!
منبع: https://venturebeat.com/ai/how-to-police-the-ai-data-feed/