آیا هوش مصنوعی در کمیته های اخلاقی جایگاهی دارد؟ نحوه استفاده صحیح از آن

نقش یک کمیته اخلاق این است که در مورد کارهایی که باید در موقعیت های اغلب بحث برانگیز انجام شود، توصیه می کند. آنها در پزشکی، تحقیقات، تجارت، حقوق و بسیاری از زمینه های دیگر استفاده می شوند.

کلمه “اخلاق” مربوط به اصول اخلاقی حاکم بر رفتار انسان. با توجه به طیف وسیع دیدگاه های اخلاقی، سیاسی، فلسفی، فرهنگی و مذهبی، وظیفه کمیته های اخلاق می تواند بسیار دشوار باشد. با این حال، استدلال های اخلاقی خوب شالوده جامعه را تشکیل می دهند، زیرا آنها اساس قوانین و توافقاتی هستند که ما برای کنار آمدن با یکدیگر از آنها استفاده می کنیم.

با توجه به اهمیت اخلاق، هر ابزاری که بتوان از آن برای رسیدن به تصمیمات اخلاقی بهتر استفاده کرد، باید مورد بررسی و استفاده قرار گیرد. طی دو سال گذشته، شناخت روزافزونی از آن وجود داشته است هوش مصنوعی (AI) ابزاری است که می تواند برای تجزیه و تحلیل داده های پیچیده استفاده شود. بنابراین منطقی است که این سوال را بپرسیم که آیا می توان از هوش مصنوعی برای کمک به تصمیم گیری بهتر اخلاقی استفاده کرد.

همانطور که هوش مصنوعی یک است کلاس الگوریتم کامپیوتر، به داده ها متکی است. کمیته‌های اخلاق نیز بر داده‌ها تکیه می‌کنند، بنابراین یک سوال مهم این است که آیا هوش مصنوعی می‌تواند انواع داده‌هایی را که کمیته‌های اخلاقی به طور مرتب در نظر می‌گیرند، بارگیری و سپس به طور معناداری تجزیه و تحلیل کند.

<3 تکنولوژی اتحادیه اروپا

آخرین اخبار از صحنه فناوری اتحادیه اروپا، داستانی از بنیانگذار پیر خردمند ما، بوریس، و برخی هنرهای مشکوک هوش مصنوعی. هر هفته در صندوق ورودی شما رایگان است. ثبت نام کن!

در اینجا، زمینه بسیار مهم می شود. به عنوان مثال الف کمیته اخلاق بیمارستان ممکن است بر اساس تجربه با بیماران، نظرات وکلا، و درک کلی از هنجارها و نظرات مشترک فرهنگی یا اجتماعی تصمیم گیری کند. در حال حاضر دشوار است که ببینیم چگونه می توان چنین داده هایی را جمع آوری کرد و به یک الگوریتم هوش مصنوعی وارد کرد.

با این حال، من ریاست یک نوع بسیار خاص از کمیته اخلاق، به نام کمیته اخلاق تحقیق (REC) را بر عهده دارم نقش بررسی پروتکل های تحقیقات علمی است. هدف ترویج تحقیقات با کیفیت بالا در عین حفاظت از حقوق، ایمنی، حیثیت و رفاه افرادی است که در تحقیق شرکت می کنند.

اکثر فعالیت‌های ما شامل خواندن اسناد پیچیده برای تعیین مسائل اخلاقی مربوطه و سپس ارائه پیشنهادهایی به محققان در مورد اینکه چگونه می‌توانند پروتکل‌ها یا رویه‌های پیشنهادی خود را بهبود بخشند، است. در این زمینه است که هوش مصنوعی می تواند بسیار مفید باشد.

پروتکل های تحقیقبه خصوص آنهایی که از آزمایشات بالینی، اغلب در صدها و نه هزاران صفحه اجرا می شود. اطلاعات متراکم و پیچیده است. اگرچه پروتکل‌ها با فرم‌های درخواست اخلاقی همراه هستند که به دنبال ارائه اطلاعات در مورد مسائل اخلاقی کلیدی به روشی هستند که اعضای REC بتوانند به راحتی آن را پیدا کنند، این کار هنوز هم می‌تواند زمان بسیار زیادی طول بکشد.

پس از مطالعه اسناد، اعضای REC آنچه را که خوانده‌اند وزن می‌کنند، آن را با راهنمایی‌های مربوط به عملکرد اخلاقی خوب مقایسه می‌کنند، ورودی‌های گروه‌های درگیرکننده بیمار و شرکت‌کننده را در نظر می‌گیرند، و سپس به تصمیم می‌رسند که آیا تحقیقات می‌تواند طبق برنامه پیش برود. متداول ترین نتیجه این است که قبل از انجام تحقیقات به اطلاعات بیشتر و تغییرات کمی نیاز است.

نقشی برای ماشین ها؟

در حالی که تلاش‌هایی برای استانداردسازی عضویت و تجربه REC انجام شده است، محققان اغلب شکایت دارند که این فرآیند می‌تواند زمان زیادی طول بکشد. ناسازگار بین کمیته های مختلف

هوش مصنوعی به نظر می رسد به صورت ایده آل قرار گرفته است برای تسریع روند و کمک به رفع برخی از ناهماهنگی ها. هوش مصنوعی نه تنها می‌توانست چنین اسناد طولانی را خیلی سریع بخواند، بلکه می‌توانست بر روی تعداد زیادی از پروتکل‌ها و تصمیمات قبلی آموزش ببیند.

این می تواند به سرعت هر گونه مسائل اخلاقی را تشخیص دهد و راه حل هایی را برای تیم های تحقیقاتی پیشنهاد کند. این امر روند بررسی اخلاقی را بسیار تسریع می‌کند و احتمالاً آن را بسیار سازگارتر می‌کند. اما آیا استفاده از هوش مصنوعی در این راه از نظر اخلاقی قابل قبول است؟

در حالی که هوش مصنوعی می تواند به وضوح بسیاری از وظایف REC را انجام دهد، همچنین می توان استدلال کرد که این وظایف بازبینی در واقع مشابه تصمیم گیری اخلاقی نیستند. در پایان فرآیند بررسی، از RECها خواسته می شود تا تصمیم بگیرند که آیا یک پروتکل، همراه با به روز رسانی، باید تصمیم بگیرند نظر مساعد یا نامطلوب دریافت کنید.

در نتیجه، در حالی که مزیت هوش مصنوعی در سرعت بخشیدن به فرآیند واضح است، این کاملاً مشابه تصمیم گیری نهایی نیست.

یک انسان در حلقه

ممکن است هوش مصنوعی در ارزیابی یک موقعیت و توصیه روشی که با رفتار «اخلاقی» قبلی سازگار است، بسیار مؤثر باشد. با این حال، تصمیم برای اتخاذ یک روش عملی، و سپس ادامه دادن به آن شیوه، اساساً انسانی است.

در مثال اخلاق تحقیق، هوش مصنوعی ممکن است به خوبی یک مسیر عمل را توصیه کند، اما در واقع تصمیم گیری در مورد اقدام یک تصمیم انسانی است. این سیستم می‌تواند به گونه‌ای طراحی شود که به کمیته‌های اخلاقی یا محققان دستور دهد که بدون شک آنچه را که هوش مصنوعی پیشنهاد می‌کند انجام دهند، اما چنین تصمیمی در مورد نحوه استفاده از هوش مصنوعی است، نه خود هوش مصنوعی.

در حالی که هوش مصنوعی با توجه به نوع داده‌هایی که بررسی می‌کنیم، شاید بلافاصله برای کمیته‌های اخلاقی تحقیق مفید باشد، به احتمال زیاد روش‌های رمزگذاری داده‌های غیر متنی (مانند تجربیات افراد) بهبود می‌یابد.

این بدان معناست که با گذشت زمان، هوش مصنوعی می‌تواند در سایر حوزه‌های تصمیم‌گیری اخلاقی نیز کمک کند. با این حال، نکته کلیدی این است که ابزار مورد استفاده برای تجزیه و تحلیل داده ها، هوش مصنوعی، را با تصمیم نهایی “اخلاقی” در مورد نحوه عمل اشتباه نگیرید. خطر هوش مصنوعی نیست، بلکه این است که مردم چگونه هوش مصنوعی را در فرآیندهای تصمیم گیری اخلاقی ادغام می کنند.گفتگو

سیمون کولستودانشیار اخلاق زیستی، دانشگاه پورتسموث

این مقاله بازنشر شده است از گفتگو تحت مجوز Creative Commons. را بخوانید مقاله اصلی.


منبع: https://thenextweb.com/news/does-ai-have-a-place-on-ethics-committees-how-to-use-it-the-right-way

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *