نحوه نظارت بر فید داده های هوش مصنوعی

VentureBeat ارائه می دهد: AI Unleashed – یک رویداد اجرایی انحصاری برای رهبران داده های سازمانی. شبکه و یادگیری با همتایان صنعت. بیشتر بدانید


در طول یک سال گذشته، هوش مصنوعی جهان را در معرض طوفان قرار داده است، و برخی از آنها این سوال را رها کرده اند: آیا هوش مصنوعی لحظاتی دور از بردگی جمعیت انسان، آخرین مد فناوری، یا چیز بسیار ظریف تر است؟

این پیچیده است. از یک طرف، ChatGPT توانست قبولی در آزمون وکالت – که برای وکلا هم تاثیرگذار و هم شاید کمی شوم است. با این حال، برخی از شکاف ها در قابلیت های نرم افزار در حال حاضر آشکار می شوند، مانند زمانی که a وکیل در دادگاه از ChatGPT استفاده کرد و ربات ها عناصر استدلال های خود را ساختند.

هوش مصنوعی بدون شک به پیشرفت خود در توانایی های خود ادامه خواهد داد، اما هنوز سوالات بزرگی وجود دارد. چگونه بفهمیم که می توانیم به هوش مصنوعی اعتماد کنیم؟ از کجا بدانیم که خروجی آن نه تنها درست است، بلکه عاری از تعصب و سانسور است؟ داده هایی که مدل هوش مصنوعی بر روی آن آموزش می بیند از کجا می آید و چگونه می توان مطمئن بود که دستکاری نشده است؟

دستکاری سناریوهای پرخطری را برای هر مدل هوش مصنوعی ایجاد می کند، به ویژه آنهایی که به زودی برای ایمنی، حمل و نقل، دفاع و سایر مناطقی که جان انسان ها در خطر است استفاده می شود.

رویداد

هوش مصنوعی آزاد شد

یک شب انحصاری فقط دعوت از بینش و شبکه، که برای مدیران ارشد سازمانی که بر پشته‌های داده و استراتژی‌ها نظارت دارند، طراحی شده است.

بیشتر بدانید

تأیید هوش مصنوعی: مقررات لازم برای هوش مصنوعی ایمن

در حالی که آژانس های ملی در سراسر جهان اذعان دارند که هوش مصنوعی به بخشی جدایی ناپذیر از فرآیندها و سیستم های ما تبدیل خواهد شد، این بدان معنا نیست که پذیرش باید بدون تمرکز دقیق اتفاق بیفتد.

دو سوال مهم که باید به آنها پاسخ دهیم عبارتند از:

  1. آیا یک سیستم خاص از مدل هوش مصنوعی استفاده می کند؟
  2. اگر از یک مدل هوش مصنوعی استفاده می شود، چه عملکردهایی می تواند فرمان/تاثیر بگذارد؟

اگر بدانیم که یک مدل برای هدف مورد نظر خود آموزش داده شده است، و دقیقاً بدانیم که در کجا مستقر شده است (و چه کاری می تواند انجام دهد)، تعداد قابل توجهی از خطرات ناشی از سوء استفاده از هوش مصنوعی را حذف کرده ایم.

وجود دارد بسیاری از روش های مختلف برای تأیید هوش مصنوعی، از جمله بازرسی سخت افزار، بازرسی سیستم، تأیید پایدار و تجزیه و تحلیل تشعشعات Van Eck.

بازرسی‌های سخت‌افزاری، بررسی‌های فیزیکی عناصر محاسباتی هستند که برای شناسایی وجود تراشه‌های مورد استفاده برای هوش مصنوعی کار می‌کنند. در مقابل، مکانیسم‌های بازرسی سیستم از نرم‌افزار برای تجزیه و تحلیل یک مدل، تعیین اینکه چه چیزی می‌تواند کنترل کند و هر عملکردی را که باید خارج از محدودیت باشد، علامت‌گذاری می‌کند، استفاده می‌کند.

این مکانیسم با شناسایی و جداسازی مناطق قرنطینه یک سیستم کار می‌کند – بخش‌هایی که به طور هدفمند برای محافظت از IP و اسرار مبهم شده‌اند. این نرم‌افزار در عوض اجزای شفاف اطراف را بررسی می‌کند تا پردازش‌های هوش مصنوعی مورد استفاده در سیستم را بدون نیاز به فاش کردن اطلاعات حساس یا IP شناسایی و پرچم‌گذاری کند.

روش های تأیید عمیق تر

مکانیسم‌های تأیید پایدار پس از بازرسی اولیه اتفاق می‌افتند و اطمینان حاصل می‌کنند که پس از استقرار یک مدل، تغییر یا دستکاری نشده است. برخی از تکنیک های ضد دستکاری مانند هش رمزنگاری و مبهم سازی کد در خود مدل تکمیل می شوند.

هش رمزنگاری به بازرس اجازه می‌دهد تا تشخیص دهد که آیا وضعیت پایه یک سیستم تغییر کرده است، بدون اینکه داده‌ها یا کدهای اساسی را آشکار کند. روش‌های مبهم‌سازی کد، که هنوز در مراحل اولیه توسعه هستند، کد سیستم را در سطح ماشین به هم می‌زنند تا توسط نیروهای خارجی نتوانند رمزگشایی شوند.

تجزیه و تحلیل تشعشعات ون اک به الگوی تشعشعات ساطع شده در حین کارکرد سیستم می پردازد. از آنجایی که سیستم‌های پیچیده تعدادی فرآیند موازی را اجرا می‌کنند، تشعشع اغلب مخدوش می‌شود و استخراج کد خاص را دشوار می‌کند. با این حال، تکنیک ون اک می تواند تغییرات عمده را تشخیص دهد (مانند هوش مصنوعی جدید) بدون رمزگشایی هیچ گونه اطلاعات حساسی که توسعه دهندگان سیستم مایلند خصوصی نگه دارند.

داده های آموزشی: اجتناب از GIGO (زباله داخل، زباله بیرون)

مهمتر از همه، داده هایی که به یک مدل هوش مصنوعی وارد می شوند باید در منبع تأیید شوند. به عنوان مثال، چرا یک ارتش مخالف تلاش می کند ناوگان جت های جنگنده شما را نابود کند، در حالی که آنها می توانند داده های آموزشی مورد استفاده برای آموزش مدل هوش مصنوعی پردازش سیگنال جت های شما را دستکاری کنند؟ هر مدل هوش مصنوعی بر روی داده‌ها آموزش داده می‌شود – این نشان می‌دهد که مدل چگونه باید ورودی جدیدی را که ارائه می‌شود تفسیر، تجزیه و تحلیل و اقدام کند. در حالی که مقدار زیادی از جزئیات فنی در روند آموزش وجود دارد، به کمک هوش مصنوعی کمک می کند تا چیزی را همانطور که یک انسان درک می کند، درک کند. روند مشابه است و مشکلات نیز وجود دارد.

در حالت ایده‌آل، ما می‌خواهیم مجموعه داده آموزشی ما نشان دهنده داده‌های واقعی باشد که به آن داده می‌شود شما یک مدل دارید پس از آموزش و استقرار. به عنوان مثال، ما می‌توانیم مجموعه داده‌ای از کارمندان گذشته با نمرات عملکرد بالا ایجاد کنیم و از آن ویژگی‌ها برای آموزش یک مدل هوش مصنوعی استفاده کنیم که می‌تواند کیفیت یک نامزد کارمند بالقوه را با بررسی رزومه آنها پیش‌بینی کند.

در حقیقت، آمازون همین کار را کرد. نتیجه؟ به طور عینی، این مدل در انجام کاری که برای انجام آن آموزش دیده بود، موفقیت بزرگی داشت. خبر بد؟ داده ها به مدل یاد داده بود که جنسیت گرا باشد. اکثر کارمندان با عملکرد بالا در مجموعه داده ها مرد بودند، که می تواند شما را به دو نتیجه برساند: عملکرد مردان بهتر از زنان. یا به سادگی این که مردان بیشتری استخدام شدند و این داده ها را منحرف کرد. مدل هوش مصنوعی هوش لازم برای در نظر گرفتن دومی را ندارد و بنابراین مجبور بود اولی را فرض کند و وزن بیشتری به جنسیت یک نامزد بدهد.

قابلیت تأیید و شفافیت کلید ایجاد هوش مصنوعی ایمن، دقیق و اخلاقی است. کاربر نهایی باید بداند که مدل هوش مصنوعی بر روی داده های درست آموزش دیده است. استفاده از رمزنگاری دانش صفر برای اثبات اینکه داده ها دستکاری نشده اند، این اطمینان را ایجاد می کند که هوش مصنوعی از همان ابتدا بر روی مجموعه داده های دقیق و ضد دستکاری آموزش دیده است.

با نگاه به آینده

رهبران کسب‌وکار باید حداقل در سطح بالا بدانند که چه روش‌های تأیید وجود دارد و چقدر در تشخیص استفاده از هوش مصنوعی، تغییرات در مدل و سوگیری‌ها در داده‌های آموزشی اصلی مؤثر هستند. شناسایی راه حل ها اولین قدم است. پلتفرم‌هایی که این ابزارها را می‌سازند، سپر حیاتی را برای هر کارمند ناراضی، جاسوس صنعتی/نظامی یا خطاهای ساده انسانی که می‌تواند مشکلات خطرناکی را در مدل‌های هوش مصنوعی قدرتمند ایجاد کند، فراهم می‌کند.

در حالی که تأیید هر مشکلی را برای یک سیستم مبتنی بر هوش مصنوعی حل نمی کند، می تواند اطمینان حاصل کند که مدل AI همانطور که در نظر گرفته شده است کار می کند و توانایی آن برای تکامل غیرمنتظره یا دستکاری فوراً شناسایی می شود. . هوش مصنوعی به طور فزاینده ای در زندگی روزمره ما ادغام می شود، و بسیار مهم است که اطمینان حاصل کنیم که می توانیم به آن اعتماد کنیم.

اسکات دایکسترا یکی از بنیانگذاران و CTO است فضا و زمانو همچنین مشاور استراتژیک تعدادی از پایگاه داده ها و استارت آپ های فناوری Web3.

DataDecisionMakers

به انجمن VentureBeat خوش آمدید!

DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.

اگر می‌خواهید درباره ایده‌های پیشرفته و اطلاعات به‌روز، بهترین شیوه‌ها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.

حتی ممکن است در نظر بگیرید مشارکت در مقاله از خودت!

از DataDecisionMakers بیشتر بخوانید


منبع: https://venturebeat.com/ai/how-to-police-the-ai-data-feed/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *