هوش مصنوعی «عصر عدم قطعیت»

هوش مصنوعی «عصر عدم قطعیت»

برای مشاهده جلسات VB Transform 2023 به کتابخانه درخواستی ما مراجعه کنید. اینجا ثبت نام کنید


از لحاظ تاریخی، دوره‌های پیشرفت و تغییر سریع، زمان‌های عدم قطعیت بزرگ را آغاز کرده‌اند. جان کنت گالبریت، اقتصاددان هاروارد، در کتاب خود در سال ۱۹۷۷ در مورد چنین زمانی نوشت. عصر عدم قطعیتکه در آن او موفقیت های اقتصاد بازار را مورد بحث قرار داد، اما همچنین دوره ای از بی ثباتی، ناکارآمدی و نابرابری اجتماعی را پیش بینی کرد.

امروز، در حالی که امواج دگرگون کننده هوش مصنوعی را طی می کنیم، خود را در آستانه عصر جدیدی می یابیم که با عدم قطعیت های مشابه مشخص شده است. با این حال، این بار نیروی محرکه صرفاً اقتصاد نیست – بلکه حرکت بی امان فناوری، به ویژه ظهور و تکامل هوش مصنوعی است.

ردپای در حال رشد هوش مصنوعی

در حال حاضر، تأثیر هوش مصنوعی در زندگی روزمره بیشتر قابل تشخیص است. از آهنگ های تولید شده توسط هوش مصنوعی، هایکوهای نوشته شده به سبک شکسپیر، وسایل نقلیه خودران، ربات های چت که می توانند از عزیزان از دست رفته تقلید کنند و دستیاران هوش مصنوعی که به ما در کار کمک می کنند، این فناوری شروع به فراگیر شدن کرده است.

هوش مصنوعی به زودی با استفاده از آن بسیار رایج تر خواهد شد نزدیک شدن به سونامی هوش مصنوعی. پروفسور اتان مولیک، استاد مدرسه وارتون، اخیراً در مورد نتایج یک آزمایش بر روی آن نوشت آینده کار حرفه ای. این آزمایش حول دو گروه از مشاوران که برای گروه مشاوران بوستون کار می کردند متمرکز بود. به هر گروه وظایف مشترک مختلفی داده شد. یک گروه توانست از هوش مصنوعی در حال حاضر برای افزایش تلاش خود استفاده کند در حالی که گروه دیگر اینطور نبود.

رویداد

VB Transform 2023 بر حسب تقاضا

آیا جلسه ای از VB Transform 2023 را از دست داده اید؟ برای دسترسی به کتابخانه درخواستی برای همه جلسات ویژه ما ثبت نام کنید.

اکنون ثبت نام کنید

Mollick گزارش داد: “مشاورانی که از هوش مصنوعی استفاده می کردند به طور متوسط ​​۱۲٫۲٪ وظایف بیشتری را به پایان رساندند، وظایف را ۲۵٫۱٪ سریعتر انجام دادند و ۴۰٪ نتایج با کیفیت بالاتری نسبت به کسانی که بدون آن نبودند.”

البته، ممکن است مشکلات ذاتی در مدل‌های زبان بزرگ (LLM)، مانند confabulation و bias، باعث شود که این موج به سادگی از بین برود – اگرچه این امر اکنون بعید به نظر می‌رسد. در حالی که این فناوری در حال حاضر پتانسیل مخرب خود را نشان می دهد، چندین سال طول می کشد تا بتوانیم قدرت سونامی را تجربه کنیم. در اینجا نگاهی به آنچه در راه است است.

موج بعدی مدل های هوش مصنوعی

نسل بعدی LLM ها پیچیده تر و عمومی تر از محصول فعلی خواهد بود که شامل GPT-4 (OpenAI)، PalM 2 (Google)، LLaMA (Meta) و Claude 2 (Anthropic) می شود. این احتمال وجود دارد که یک مدل جدید و احتمالاً بسیار توانا از xAI، مدل جدید ایلان ماسک نیز وجود داشته باشد. استارت آپ. قابلیت هایی مانند استدلال، عقل سلیم و قضاوت همچنان چالش های بزرگی برای این مدل ها هستند. با این حال، می‌توان انتظار داشت که در هر یک از این زمینه‌ها شاهد پیشرفت باشیم.

در میان نسل بعدی، وال استریت ژورنال گزارش شده است متا در حال کار بر روی یک LLM است که حداقل به اندازه GPT-4 توانایی دارد. طبق این گزارش، انتظار می‌رود این اتفاق در سال ۲۰۲۴ باشد. منطقی است که انتظار داشته باشیم OpenAI نیز روی نسل بعدی آنها کار کند، اگرچه آنها در بحث درباره برنامه‌ها سکوت کرده‌اند. که احتمالا زیاد دوام نخواهد آورد.

بر اساس اطلاعات موجود در حال حاضر، مهم‌ترین مدل جدید «جمینی» از تیم ترکیبی Google Brain و DeepMind AI است. جمینی می تواند از هر چیزی که امروزه در دسترس است پیشی بگیرد. ساندار پیچای، مدیرعامل آلفابت اعلام کرد در ماه مه گذشته آموزش این مدل در حال انجام بود.

پیچای در الف وبلاگ در آن زمان: “در حالی که هنوز زود است، ما در حال حاضر شاهد قابلیت های چندوجهی چشمگیر هستیم که در مدل های قبلی دیده نشده است.”

چند وجهی به این معنی است که می تواند انواع مختلفی از ورودی های داده (متن و تصاویر) را پردازش و درک کند، که به عنوان پایه ای برای برنامه های کاربردی مبتنی بر متن و مبتنی بر تصویر عمل می کند. اشاره به قابلیت‌هایی که در مدل‌های قبلی دیده نمی‌شد به این معنی است که می‌تواند ویژگی‌ها و رفتارهای اضطراری یا پیش‌بینی‌نشده‌تری وجود داشته باشد. یک مثال نوظهور از نسل کنونی، توانایی ایجاد کد کامپیوتری است، زیرا این یک قابلیت مورد انتظار نبود.

چاقوی ارتش سوئیس از مدل های هوش مصنوعی؟

وجود داشته است گزارش ها گوگل به گروه کوچکی از شرکت ها اجازه دسترسی به نسخه اولیه Gemini را داده است. یکی از آن‌ها می‌تواند SemiAnalysis، یک شرکت تحقیقاتی نیمه‌رسانا باشد. بر اساس یک جدید پost از سوی این شرکت، Gemini می تواند ۵ تا ۲۰ برابر پیشرفته تر از مدل های GPT-4 در حال حاضر در بازار باشد.

طراحی Gemini احتمالا بر اساس Gato DeepMind است که در سال ۲۰۲۲ فاش شد. A VentureBeat مقاله سال گذشته گزارش داد: « یادگیری عمیق [Gato] مدل ترانسفورماتور به عنوان یک «عامل کلی» توصیف می‌شود و به دنبال انجام ۶۰۴ کار متمایز و اغلب پیش پا افتاده با روش‌ها، مشاهدات و مشخصات عملی متفاوت است. بوده است معرفی شده به عنوان چاقوی ارتش سوئیس مدل های هوش مصنوعی. این به وضوح بسیار کلی تر از سایر سیستم های هوش مصنوعی است که تاکنون توسعه یافته اند و از این نظر به نظر می رسد گامی به سوی آن باشد AGI [artificial general intelligence]”

به سوی هوش عمومی مصنوعی (AGI)

قبلاً تصور می شود که GPT-4 “جرقه های AGI” را نشان می دهد. بر این اساس به مایکروسافت، قادر به حل وظایف بدیع و دشواری است که شامل ریاضیات، کدنویسی، چشم انداز، پزشکی، حقوق، روانشناسی و غیره است، بدون نیاز به هیچ گونه درخواست خاصی. با جهش تمام مدل های موجود، Gemini می تواند در واقع گام بزرگی به سوی AGI باشد. گمانه زنی ها حاکی از آن است که Gemini در چندین سطح از قابلیت های مدل، احتمالا طی چند ماه و شاید تا قبل از پایان سال جاری عرضه خواهد شد.

همانطور که Gemini احتمالاً چشمگیر است، حتی مدل های بزرگتر و پیچیده تری نیز انتظار می رود. مصطفی سلیمان، مدیر عامل و بنیانگذار هوش مصنوعی Inflection و یکی از بنیانگذاران DeepMind، در طول یک Economist پیش بینی کرد. گفتگو که «در پنج سال آینده، شرکت‌های مدل‌سازی مرزی – آنهایی از ما که در حال حاضر در حال آموزش بزرگ‌ترین مدل‌های هوش مصنوعی هستیم – مدل‌هایی را آموزش می‌دهند که بیش از هزار برابر بزرگ‌تر از آنچه امروز در GPT می‌بینید. ۴٫”

کاربردهای بالقوه و تأثیری که این مدل‌ها می‌توانند در زندگی روزمره ما داشته باشند، می‌تواند بی‌نظیر باشد، با پتانسیل مزایای بزرگ و همچنین خطرات افزایش یافته. نمایشگاه Vanity Fair نقل قول ها دیوید چالمرز، استاد فلسفه و علوم اعصاب در دانشگاه نیویورک: “مزایای مثبت این امر بسیار زیاد است، شاید این سیستم ها درمان بیماری ها و راه حل هایی برای مشکلاتی مانند فقر و تغییرات آب و هوایی پیدا کنند، و اینها جنبه های مثبت بسیار زیادی دارند.” این مقاله همچنین خطرات بالقوه را با استناد به پیش‌بینی‌های کارشناسان از پیامدهای وحشتناک از جمله احتمال انقراض انسان، با تخمین‌های احتمالی از ۱٪ تا ۵۰٪ مورد بحث قرار می‌دهد.

پایان تاریخ تحت سلطه بشر؟

در گفتگوی اکونومیست، مورخ یووال نوح هراری گفت این پیشرفت‌های آینده در توسعه هوش مصنوعی پایان تاریخ نیست، بلکه پایان تاریخ تحت سلطه انسان است. تاریخ با کنترل شخص دیگری ادامه خواهد داشت. من به آن بیشتر به عنوان یک تهاجم بیگانگان فکر می کنم.”

که سلیمان به آن پاسخ داد: ابزارهای هوش مصنوعی عاملیتی ندارند، به این معنی که آنها نمی توانند کاری فراتر از آنچه انسان ها به آنها قدرت می دهند انجام دهند. هراری سپس پاسخ داد که این هوش مصنوعی آینده می تواند “هوشمندتر از ما” باشد. چگونه از توسعه آژانس باهوش تر از شما جلوگیری می کنید؟ با آژانس، یک هوش مصنوعی می تواند اقداماتی را دنبال کند که ممکن است با نیازها و ارزش های انسانی همسو نباشد.

این مدل‌های نسل بعدی نشان‌دهنده گام بعدی به سوی AGI و آینده‌ای هستند که در آن هوش مصنوعی حتی برای زندگی مدرن بسیار توانمندتر، یکپارچه‌تر و ضروری‌تر می‌شود. در حالی که دلایل زیادی برای امیدواری وجود دارد، این تحولات جدید مورد انتظار انگیزه بیشتری به درخواست‌ها برای نظارت و مقررات می‌افزاید.

معمای نظارتی

حتی رهبران شرکت هایی که مدل های مرزی تولید می کنند موافق هستند که مقررات لازم است. پس از بسیاری از به طور مشترک در برابر سنای ایالات متحده ظاهر شد در ۱۳ سپتامبر، فورچون گزارش شده است که آنها “به راحتی ایده مقررات دولتی را تایید کردند” و “توافق کمی در مورد اینکه مقررات چگونه به نظر می رسد وجود دارد.”

این جلسه توسط سناتور چاک شومر سازماندهی شد که بعداً در مورد چالش های پیش روی در تدوین مقررات مناسب بحث کرد. او خاطرنشان کرد که هوش مصنوعی از نظر فنی پیچیده است، مدام در حال تغییر است و “تاثیر گسترده و گسترده ای در سراسر جهان دارد.”

حتی ممکن است به طور واقعی امکان تنظیم هوش مصنوعی وجود نداشته باشد. برای یک چیز، بسیاری از فن آوری به عنوان نرم افزار منبع باز منتشر شده است، به این معنی که به طور موثر در طبیعت برای هر کسی قابل استفاده است. این به تنهایی می تواند بسیاری از تلاش های نظارتی را مشکل ساز کند.

احتیاط منطقی و عقلانی

برخی اظهارات عمومی رهبران هوش مصنوعی در حمایت از نمایشنامه مقررات را می بینند. MarketWatch گزارش داد دیدگاه ها تام سیبل، مدیر اجرایی قدیمی دره سیلیکون و مدیر عامل فعلی C3 AI: “مدیران هوش مصنوعی با قانونگذاران بازی می کنند و از آنها می خواهند که ما را تنظیم کنند. اما پول و سرمایه فکری کافی برای اطمینان از میلیون ها نفر وجود ندارد. الگوریتم ها ایمن هستند آنها می دانند که غیرممکن است.

ممکن است واقعا غیرممکن باشد، اما ما باید تلاش کنیم. همانطور که سلیمان در گفتگوی اکونومیست خود خاطرنشان کرد: “این لحظه ای است که ما باید یک اصل احتیاطی را اتخاذ کنیم، نه از طریق هر عامل ترس، بلکه فقط به عنوان یک راه منطقی و معقول برای ادامه کار.”

از آنجایی که هوش مصنوعی به سرعت از قابلیت‌های محدود به سمت AGI پیش می‌رود، این وعده بسیار زیاد است، اما خطرات آن عمیق است. این عصر عدم اطمینان عمیق‌ترین وجدان، خرد و احتیاط ما را می‌طلبد تا این فناوری‌های هوش مصنوعی را به نفع بشریت توسعه دهیم و در عین حال از خطرات بالقوه شدید جلوگیری کنیم.

گری گروسمن معاون ارشد فن آوری در ادلمن و رهبر جهانی مرکز تعالی هوش مصنوعی Edelman.

DataDecisionMakers

به انجمن VentureBeat خوش آمدید!

DataDecisionMakers جایی است که کارشناسان، از جمله افراد فنی که کار داده را انجام می دهند، می توانند بینش ها و نوآوری های مرتبط با داده را به اشتراک بگذارند.

اگر می‌خواهید درباره ایده‌های پیشرفته و اطلاعات به‌روز، بهترین شیوه‌ها و آینده فناوری داده و داده مطالعه کنید، به ما در DataDecisionMakers بپیوندید.

حتی ممکن است در نظر بگیرید مشارکت در مقاله از خودت!

از DataDecisionMakers بیشتر بخوانید


منبع: https://venturebeat.com/ai/the-ai-age-of-uncertainty/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *