هوش مصنوعی | متن کامل رایگان | ملاحظات اخلاقی برای کاربردهای هوش مصنوعی برای HIV

۲٫۱٫ ملاحظات اخلاقی در مورد مقبولیت و اعتماد

بیماران HIV و پزشکان مراقبت های اولیه اغلب دیدگاه های متفاوتی در مورد کاربرد ابزارهای مبتنی بر هوش مصنوعی برای HIV دارند. در یک مطالعه مصاحبه، پزشکان مراقبت های اولیه تمایل بیشتری به استفاده از ابزارهای پیش بینی خطر HIV در کنار سابقه پزشکی بیمار و قضاوت بالینی خود نشان دادند. با این حال، برخی از مردانی که رابطه جنسی با مردان (MSM) دارند نسبت به این ابزارهای مبتنی بر هوش مصنوعی ابراز ترس، اضطراب و بی اعتمادی کردند. [۷].
مسئله مقبولیت و اعتماد به طور فزاینده ای در قلمرو چت ربات های مبتنی بر هوش مصنوعی آشکار می شود – عوامل مکالمه آنلاین که برای تکرار مکالمات بلادرنگ با انسان ها مهندسی شده اند. پزشکان عموماً مفید بودن ربات‌های گفتگو را به عنوان کمک‌های دیجیتالی برای کارهایی مانند زمان‌بندی قرار ملاقات و ارائه اطلاعات پزشکی تأیید می‌کنند. با این حال، برخی در مورد بیمارانی که خود تشخیص می دهند یا به اطلاعاتی که ممکن است کاملاً درک نمی کنند، اتکا کنند، ابراز محبت می کنند [۸]. با توجه به شیوع اطلاعات نادرست HIV در پلتفرم‌های آنلاین، از جمله رسانه‌های اجتماعی، چت‌بات‌های آموزش‌دیده بر روی چنین منابع داده‌ای ممکن است اطلاعات پزشکی گمراه‌کننده را بین جمعیت‌های در معرض خطر و کسانی که سواد اینترنتی محدودی دارند، منتشر کنند. [۹].
این نگرانی ها توسط چندین مطالعه انجام شده با بیماران HIV که دیدگاه های خود را در مورد ربات های گفتگوی مورد استفاده برای مداخلات مرتبط با HIV به اشتراک گذاشتند، پشتیبانی شد. بیماران به طور کلی از ایده چت ربات سلامت استقبال کردند، اگرچه تردید آنها عمدتاً حول نگرانی در مورد حریم خصوصی، محرمانه بودن، امنیت سایبری و انگ بیشتر بود. [۵,۱۰]. علاوه بر این، در یک مطالعه کیفی دیگر، شرکت‌کنندگان نگرانی‌های مربوط به دقت اطلاعات را تشریح کردند و تردید خود را نسبت به توانایی چت ربات‌های مبتنی بر هوش مصنوعی برای ارائه پشتیبانی عاطفی و حل مشکلات پیچیده به‌عنوان محرک‌های اصلی برای داشتن انتظارات عملکرد پایین‌تر نشان دادند. [۵]. در مجموع، این عوامل به کاهش پذیرش و اعتماد بیمار نسبت به ربات‌های گفتگوی مبتنی بر هوش مصنوعی کمک می‌کنند. این سؤالات اخلاقی را در مورد ترویج استفاده از ربات‌های گفتگو که فاقد اعتماد و پذیرش کامل از سوی بیماران HIV است، ایجاد می‌کند. با استفاده روزافزون از مدل‌های جدید زبان بزرگ مانند ChatGPT، رسیدگی به این نگرانی‌ها قبل از پیاده‌سازی به طور فزاینده‌ای حیاتی می‌شود.
پیشرفت‌های اخیر ربات‌های گفتگو را قادر ساخته تا به طور مؤثرتری با اطلاعات نادرست که منجر به کاهش اعتماد و مقبولیت سیستم‌های هوش مصنوعی بهداشتی و پزشکی ذینفعان مربوطه می‌شود، مبارزه کنند. شیائو و همکاران جنیفر، یک ربات چت هوش مصنوعی را ایجاد کرد که به عنوان یک پورتال اطلاعاتی معتبر و با دسترسی آسان در مورد COVID-19 برای افراد خدمت می کند. [۱۱]. این ربات چت به گونه ای طراحی شده است که نسبت به چت ربات های قبلی قابل اعتمادتر باشد زیرا ۱۵۰ کارشناس COVID-19 از جمله دانشمندان و متخصصان بهداشت به فرآیند توسعه مشارکتی دعوت شده بودند. با این کارشناسان برای درک بهتر چالش‌ها در فرآیند توسعه و فرصت‌های بهبود آینده مصاحبه شد. علاوه بر این، یک آزمایش آنلاین که کارایی جنیفر را در کمک به جویندگان اطلاعات در مکان یابی اطلاعات COVID-19 و جلب اعتماد آنها بررسی می کرد نیز انجام شد. چت ربات های همه منظوره مانند ChatGPT نمادین، که اغلب توسط کاربران برای به دست آوردن اطلاعات اولیه پزشکی یا دریافت حمایت عاطفی و روانی در مورد برخی از بیماری ها استفاده می شود، نیز تکامل یافته اند تا در جدیدترین نسخه های خود در برابر اطلاعات نادرست قوی تر شوند. به عنوان مثال، GPT-3.5 و GPT-4.0 بر اساس متن ۱۱ «افسانه و تصور غلط» سازمان جهانی بهداشت در مورد واکسیناسیون مورد آزمایش قرار گرفتند. [۱۲]. جنبه‌های متعددی از جمله درستی، وضوح و جامع بودن پاسخ‌های ChatGPT به افسانه‌ها و باورهای غلط رایج واکسیناسیون مورد ارزیابی قرار گرفت. ارزیابی‌کنندگان دریافتند که پاسخ‌های ChatGPT اطلاعات دقیق و جامعی را در مورد افسانه‌ها و تصورات غلط رایج در مورد واکسیناسیون به شیوه‌ای قابل درک و محاوره‌ای بدون درج اطلاعات نادرست یا اطلاعات مضر ارائه می‌دهد. با این حال، این مطالعه نگرانی‌هایی را در مورد خطر قرار دادن کاربران در معرض پاسخ‌های گمراه‌کننده ایجاد کرد، به‌ویژه زمانی که آن‌ها غیرمتخصص هستند و بدون حمایت از مشاوره پزشکی متخصص با ChatGPT مشورت می‌کنند. محققان و کارشناسان HIV ممکن است بخواهند به این پیشرفت‌های اخیر پیرامون چت ربات‌ها هنگام توسعه چت‌ربات‌های پزشکی و بهداشتی سفارشی‌شده برای HIV اشاره کنند.
رضایت آگاهانه به عنوان یک عامل اساسی در افزایش پذیرش و اعتماد نسبت به سیستم‌های هوش مصنوعی برای HIV می‌باشد. در حالی که اکثر مطالعات در مورد مقبولیت و اعتماد بر دیدگاه‌های بیمار تمرکز می‌کنند، ضروری است که این تمرکز را گسترش دهیم تا ذینفعان غیر بیمار را نیز در بر گیرند، زیرا دیدگاه‌ها و نگرش‌های آنها به طور قابل‌توجهی بر قابلیت اعتماد کلی سیستم‌های هوش مصنوعی تأثیر می‌گذارد. با این حال، شایان توجه است که رضایت آگاهانه یک مفهوم تک بعدی نیست. برای مثال، مولدرم و همکاران، مصاحبه‌های نیمه‌ساخت‌یافته‌ای را برای جمع‌آوری دیدگاه‌های مختلف درباره رضایت آگاهانه از ذینفعان مهم درگیر در نظارت مولکولی HIV انجام دادند. [۱۳]. در تحقیقات خود، آنها پنج رویکرد برای رضایت ارائه کردند که هر کدام در انحراف از وضعیت موجود و در حدس و گمان در مورد شیوه های رضایت بالقوه آینده در نظارت و پیشگیری از HIV متفاوت بودند. این مطالعه نه تنها نشان داد که مفهوم رضایت آگاهانه به اشکال مختلف آشکار می‌شود، بلکه میزان پذیرش چنین شیوه‌های رضایت در بین ذینفعان متفاوت است. تنها توافق بین ذینفعان، اذعان به ضرورت رضایت آگاهانه بود. این نشان می‌دهد که سفارشی‌سازی شیوه‌های رضایت آگاهانه نسبت به هر ذینفع به احتمال زیاد مقبولیت و اعتماد نسبت به برنامه‌های هوش مصنوعی برای HIV را افزایش می‌دهد. ۶Ws (چه کسی، چگونه، چه، چه زمانی، کجا و چرا)، که در روزنامه نگاری و اکنون در بسیاری از زمینه های دیگر ریشه دوانده است، باید به عنوان یک چارچوب مفهومی برای رضایت آگاهانه در سیستم های هوش مصنوعی برای HIV استفاده شود. چارچوب در جدول ۱ خلاصه شده است.
روش دیگری برای بهبود مقبولیت و اعتماد که اخیراً مورد توجه قرار گرفته است، یادگیری فدرال (FL) است. این به ایده تمرکززدایی سیستم های هوش مصنوعی اشاره دارد به طوری که صاحبان داده های متعدد به طور مشترک یک مدل هوش مصنوعی را بدون نیاز به دسترسی به داده های خام یکدیگر آموزش می دهند. [۱۴]. FL خطر نقض حریم خصوصی را کاهش می دهد، از داده های حساس از طریق سیستم توزیع محلی خود محافظت می کند و به دلیل ماهیت مشارکتی آموزش مدل از دسترسی غیرمجاز جلوگیری می کند. [۱۵]. این ماهیت حفظ حریم خصوصی FL، سیستم‌های هوش مصنوعی را قادر می‌سازد تا پذیرش و اعتماد بیشتری را از طرف سهامداران به دست آورند. با این حال، FL بدون چالش نیست. ماهیت توزیع شده سیستم هوش مصنوعی ممکن است به قیمت کاهش عملکرد کلی باشد، مانع از توسعه یک مدل جهانی قوی شود و سیستم را در معرض آسیب پذیری بیشتر در برابر حملات مخرب قرار دهد. [۱۵]. مطالعه‌ای که FL را در یک سیستم هوش مصنوعی برای HIV به کار می‌برد، توسط نگوین و همکاران انجام شد، که چارچوب FL را برای پیش‌بینی خطر عفونت‌های مقاربتی (STIs) و HIV پیشنهاد کردند. [۱۶]. سیستم FL چندین کلینیک و سهامداران کلیدی را در بر می گرفت. این اطمینان حاصل کرد که مدل‌های هوش مصنوعی فقط در کلینیک‌ها به اشتراک گذاشته می‌شوند و اطلاعات شخصی را از افشای محافظت می‌کند. از داده های دموگرافیک و رفتاری برای پیش بینی خطر HIV و STI استفاده شد. میزان چنین داده هایی که باید در بین نهادهای مراقبت های بهداشتی به اشتراک گذاشته شود، به دلیل ویژگی تجمیع پذیری سیستم FL به حداقل رسیده است. این به عنوان یک اقدام ایمنی برای محافظت از اطلاعات بیمار در طول فرآیند آموزش مدل عمل کرد. جدای از این مطالعه، کاربردهای FL در سیستم‌های هوش مصنوعی مرتبط با HIV محدود است. برای مطالعات آینده برای شناسایی انواع مختلف برنامه های حریم خصوصی که FL می تواند در آنها با مشاهده، مصاحبه و نظرسنجی از سهامداران مختلف مورد استفاده قرار گیرد، مطلوب است.

۲٫۲٫ ملاحظات اخلاقی در مورد انصاف

انصاف، مسئولیت پذیری و شفافیت (FAT) به طور گسترده برای ارزیابی پیامدهای اخلاقی و سوگیری الگوریتم ها یا سیستم ها استفاده می شود. [۱۷]. مطالعات اخیر به وجود جنسیت اشاره کرده است [۱۸] و نژاد [۱۹] سوگیری در برنامه های هوش مصنوعی که ممکن است جوامع را بیگانه کند و نقش هوش مصنوعی را در بخشی از راه حل زیر سوال ببرد. این امر به ویژه در زمینه برنامه های کاربردی هوش مصنوعی برای HIV صادق است. در یک مطالعه، محققان اخیراً یک مدل پیش‌بینی HIV را برای شناسایی کاندیدهای بالقوه PrEP که به احتمال زیاد از پیشگیری پیش از قرار گرفتن در معرض HIV در یک سیستم مراقبت‌های بهداشتی بزرگ سود می‌برند، توسعه دادند. [۲۰]. در حالی که این مدل ۳۸٫۶٪ موارد آینده HIV را به درستی شناسایی کرد، حساسیت مدل در مجموعه اعتبار سنجی ۴۶٫۴٪ برای مردان و ۰٪ برای زنان بود، که بر اهمیت تقاطع برای نتایج منصفانه در مراقبت های بهداشتی تاکید می کند. چندین مطالعه دیگر نیز به مسائل مشابه در مواردی که ابزارهای پیش‌بینی خطر HIV موجود بر اساس معیارهای مراکز کنترل و پیشگیری از بیماری برای استفاده از PrEP نشان داده شده است که خطر اچ‌آی‌وی را در میان مردان سیاه پوستی که دارای رابطه جنسی با مردان (MSM) هستند، به مسائل مشابه اشاره کرده‌اند. [۲۱,۲۲].
تلاش‌ها برای توسعه برنامه‌های کاربردی هوش مصنوعی که به این بی‌انصافی رسیدگی می‌کنند یا به جمعیت حاشیه‌نشین بیماران HIV در موسسات مختلف در حال انجام است. به عنوان مثال، یک پروژه در حال انجام با هدف توسعه و اعتبارسنجی الگوریتمی است که برای شناسایی زنانی که می‌توانند از PrEP در شهرستانی با شیوع بالای HIV در میان زنان بهره ببرند، طراحی شده است. این مطالعه از داده های HER از کلینیک های بهداشت عمومی در فلوریدا استفاده کرد [۲۳]. در ابتکار دیگری، چندین گروه برای ایجاد سیستم مراقبت از HIV LaPHIE، یک پلت فرم به اشتراک گذاری داده برای داده های HIV، همکاری کرده اند. این پلت فرم نه تنها به دنبال ترویج عدالت در میان جمعیت های مختلف HIV با در دسترس بودن داده های مختلف است، بلکه هدف آن افزایش حفظ در مراقبت است. [۲۲,۲۳].
پرداختن به موضوع بی عدالتی زمانی پیچیده تر می شود که با سایر ارزش های اخلاقی در تضاد باشد. یکی از این ارزش ها حفظ حریم خصوصی است. هنگام ساخت و انتشار برنامه های کاربردی هوش مصنوعی برای شناسایی و پیش بینی HIV، اطلاعات حساسی که ممکن است منجر به شناسایی مجدد و نقض حریم خصوصی از جمله نژاد، قومیت، جنسیت، وضعیت HIV و سوء مصرف مواد شود، اغلب از داده های منتشر شده حذف می شوند. [۲۴]. متأسفانه، حذف این ابعاد ممکن است عملکرد پیش‌بینی‌کننده برنامه هوش مصنوعی برای بیماران HIV را کاهش دهد و نابرابری‌های موجود در سلامت را تقویت کند. همچنین می تواند برای ارزیابی عادلانه بودن برنامه هوش مصنوعی و داده های مورد استفاده برای ساخت آن چالش ایجاد کند [۲۵]. در نظر گرفتن اینکه کدام ارزش اخلاقی را بر سایر ارزش‌های به ظاهر متضاد اولویت دهیم، در صورت اجتناب‌ناپذیر بودن مبادله، بسیار مهم است.
علاوه بر این موضوع که با جمعیت خاصی در جامعه بیماران HIV به طور ناعادلانه رفتار می شود، خود بیماران HIV در حال حاضر به دلیل انگ زدن در معرض بی عدالتی در حوزه های پزشکی و بهداشت عمومی قرار گرفته اند. [۲۶]. توسعه دهندگان و طراحان هوش مصنوعی برای HIV باید از موارد قبلی مطلع شوند که چگونه سیستم های هوش مصنوعی در معرض خطر انگ زدن ناخواسته به جمعیت هایی هستند که به بیماری ها یا شرایط خاصی مبتلا می شوند. به عنوان مثال، استفاده از هوش مصنوعی برای شناسایی نقاط داغ COVID-19، نمونه ای از این بود که چگونه سیستم های هوش مصنوعی برای بیماری ها یا شرایط خاص می توانند بر اساس این دیدگاه اشتباه که یک نوع خاص از COVID-19 (به عنوان مثال، Omicron) انگ روی جمعیت های خاص تحمیل شود. می تواند به راحتی در آن جمعیت ها محدود شود [۲۷]. سیستم‌های هوش مصنوعی برای اچ‌آی‌وی باید اطمینان حاصل کنند که چنین انگی توسط سیستم‌هایی که برای افراد مبتلا به HIV (PLWH) سودمند و مفید هستند تشدید نمی‌شود. با این حال، مطالعات قبلی مواردی را نشان می‌دهند که داده‌های مورد استفاده در برنامه‌های کاربردی هوش مصنوعی برای HIV یا خود برنامه‌های کاربردی برای تشدید این انگ، حتی منجر به جرم انگاری بالقوه نتیجه معکوس می‌دهند. [۲۸,۲۹]. نظارت مولکولی اچ آی وی جایی بود که این نگرانی برجسته ترین بود. این را می توان به این واقعیت نسبت داد که داده های توالی ژنومی را می توان در دادرسی کیفری برای متهم کردن فرد به انتقال HIV در ایالاتی که انقباض HIV غیرقانونی است، استفاده کرد. [۲۸,۲۹]. تکنیک‌های سنتی ناشناس‌سازی و هویت‌زدایی ممکن است به طور کامل جلوگیری از نقض حریم خصوصی و محرمانگی و در نهایت محافظت از PLWH در برابر جرم‌انگاری را تضمین نکنند. در این مورد، حریم خصوصی افتراقی، مفهومی که برای اولین بار در سال ۲۰۰۶ ارائه شد، ممکن است منطقه ارزشمندی برای اکتشاف بیشتر برای محققان هوش مصنوعی برای HIV باشد تا داده‌های بزرگ ایجاد شده از طریق پیوندهای رکوردی را بی‌نام و شناسایی کنند. [۳۰]. حریم خصوصی متفاوت خطر افزایش حریم خصوصی یک فرد را که با شرکت در یک پایگاه داده متحمل می شود را در بر می گیرد و اغلب اطلاعات بسیار دقیقی را در مورد پایگاه داده ارائه می دهد در حالی که به طور همزمان سطوح بالایی از حریم خصوصی را حفظ می کند. مطالعاتی که قبلاً حریم خصوصی متفاوتی را در پرونده الکترونیک سلامت (EHR) و داده‌های نظارت بر سلامت عمومی ایجاد شده از طریق پیوند سوابق اعمال کرده‌اند، باید ارجاع داده شوند. [۳۱,۳۲].

۲٫۳٫ ملاحظات اخلاقی در مورد شفافیت

شفافیت، که اغلب به عنوان مترادف برای توضیح پذیری، تفسیرپذیری، باز بودن، در دسترس بودن و قابل مشاهده بودن استفاده می شود، به سختی می توان آن را به زبان ساده تعریف کرد. [۳۳]. با این وجود، در زمینه این مقاله، شفافیت می‌تواند به ارتباطات واضح در مورد چگونگی توسعه برنامه‌های هوش مصنوعی برای HIV و فرآیندهای تصمیم‌گیری اشاره داشته باشد.
رویکردهای فراگیر و مشارکتی در توسعه و استقرار برنامه های کاربردی هوش مصنوعی برای HIV برای افزایش شفافیت ضروری است. روش‌های مشارکتی در تحقیقات کیفی از جمله گروه‌های متمرکز و جلسات طراحی مشترک ممکن است به بهبود شفافیت کمک کند همانطور که قبلاً با مطالعه نشان داده شده است که چارچوبی را برای طراحی مشترک یک پلت فرم سلامت دیجیتال برای مراقبت و مراقبت HIV نشان داده است. [۳۴]. در سال ۲۰۲۲، دیویس و چندین محقق به بررسی قدرت سلامت دیجیتال برای تقویت سیستم های بهداشتی در کشورهای با درآمد کم و متوسط ​​پرداختند و در عین حال تهدیدات بالقوه علیه حقوق بشر را در نظر گرفتند. در طی این فرآیند، ذینفعان مختلف از افراد مبتلا به HIV گرفته تا فعالان اچ آی وی و وکلای حقوق بشر برای شرکت در طراحی مطالعه، قوم نگاری دیجیتال، بحث های گروه متمرکز، مصاحبه با اطلاعات کلیدی و تجزیه و تحلیل داده ها دعوت شدند. [۱۴]. این فرآیند مشارکتی به یک مطالعه شفاف‌تر کمک کرد که در آن طراحی و نتایج مطالعه به طور کامل توسط کسانی که بیشترین تأثیر را از آن دارند درک کردند.
طراحی مشارکتی هوش مصنوعی برای HIV فراتر از مداخلات سلامت دیجیتال نیازمند ملاحظات بیشتری است. ابداع یک سیستم هوش مصنوعی معمولاً از طراحی، توسعه و استقرار تشکیل شده است [۳۵]. آیا این رویکرد مشارکتی باید با هر یک از این سه مرحله تطبیق داده شود؟ به عنوان مثال، هنگام توسعه یک هوش مصنوعی که مناطق پیش‌بینی‌شده شیوع HIV را مشخص می‌کند، چگونه حقایق اصلی را تعیین می‌کنیم (مثلاً کدام اعداد مورد به عنوان آستانه مناسب عمل می‌کنند)؟ کدام ذینفعان در تنظیم آن حقایق اساسی دخیل خواهند بود؟ کدام نرم افزار برای ساخت مدل پیش بینی مبتنی بر هوش مصنوعی استفاده خواهد شد؟ چگونه ورودی های مختلف ذینفعان در فرآیند آموزش مدل گنجانده می شود؟ یک مطالعه موردی از Winter و Carusi ممکن است مرجعی برای پاسخ به برخی از این سؤالات باشد [۳۶]. این مقاله فرآیندهای همکاری پیچیده بین ذینفعان مختلف از جمله دانشمندان داده و پزشکان را در توسعه فناوری هوش مصنوعی برای تشخیص زودهنگام فشار خون ریوی، یک بیماری نادر تنفسی، بررسی می‌کند. این نشان می‌دهد که چگونه دانش و دیدگاه‌های شرکت‌کنندگان مختلف در توسعه آن یکپارچه شده و در فناوری گنجانده شده است، و به سیستم هوش مصنوعی اجازه می‌دهد تا نه تنها فنی، بلکه اجتماعی نیز باشد و در نتیجه شفاف‌تر و کمتر ناعادلانه‌تر باشد.
کمیته‌های تخصصی در اخلاق داده‌های اچ‌آی‌وی که شامل ذینفعان مرتبط با پیشینه‌های مختلف می‌شود، باید برای تسهیل این مشارکت مشارکتی سیستم‌های هوش مصنوعی برای HIV تشکیل شوند. این امر بسیار مهم است زیرا اخلاقیات پیرامون داده ها به طور خاص بر ابعاد اخلاقی خود سیستم هوش مصنوعی که از آن داده ها استفاده می کند تأثیر می گذارد. مطالعه ای که یک کمیته مشورتی سفارشی شده برای اخلاق داده ها برای منطقه صحرای جنوب صحرا پیشنهاد می کند می تواند به عنوان یک مدل عمل کند. [۳۷]. طیف گسترده ای از ذینفعان از دانشمندان داده و اخلاق زیستی گرفته تا محققان با دانش کافی در مورد COVID-19 و HIV و کارشناسان حقوقی را دعوت کرد. این چارچوب برای رسیدگی به نگرانی‌های اخلاقی خاص پروژه‌های داده‌های بهداشتی بزرگ در نظر گرفته شده بود، زیرا یک هیئت بازبینی اخلاق عمومی ممکن است ظرفیت کامل برای رسیدگی به این نگرانی‌ها را نداشته باشد، زیرا اخلاق داده‌ها یک رشته نوظهور در آفریقا است. هنگامی که یک کمیته اخلاقی داده های HIV مشابه ایجاد شد، باید روی ساخت چارچوب های حاکمیتی مجزا که برای هر نوع برنامه کاربردی هوش مصنوعی برای HIV سفارشی شده است، کار کند. به عنوان مثال، هنگام در نظر گرفتن چت ربات های مبتنی بر هوش مصنوعی که برای ترویج آزمایش در میان افراد مبتلا به HIV (PLWH) و ارائه مشاوره بهداشت روان طراحی شده اند، مجمع جهانی اقتصاد (WEF) 10 اصل اخلاقی را برای چت ربات های مبتنی بر هوش مصنوعی پیشنهاد کرده است که در مراقبت های بهداشتی استفاده می شود. [۳۸,۳۹]. این اصول می توانند به عنوان یک چارچوب جامع برای ارزیابی یکپارچگی اخلاقی چنین سیستم هایی عمل کنند.
نکته ای که باید در نظر گرفته شود، پتانسیل شفافیت است که بر برخی از ذینفعان بسته به میزان و نوع اطلاعات شفاف سازی شده است. نولان این امکان را با گسترش مفهوم امتیاز درمانی به کاربردهای هوش مصنوعی در تنظیمات پزشکی بررسی کرد. [۴۰]. نولان توضیح می‌دهد که امتیاز درمانی اختیار پزشک است تا شفافیت تصمیم پزشکی را بر اساس این که سلامت جسمی یا روانی بیمار با ارائه اطلاعات آسیب جدی ببیند، محدود کند. آیا در زمینه سیستم‌های هوش مصنوعی برای HIV، آیا هرگز باید از این امتیاز درمانی استفاده کرد و اگر چنین است، چه زمانی و تحت چه شرایطی؟ آیا انواع یا مقادیر خاصی از اطلاعات مانند عملکرد درونی الگوریتم هوش مصنوعی برای تشخیص خوشه HIV وجود دارد که ممکن است بیماران را تحت تأثیر قرار دهد؟ آیا خطر منصرف شدن چنین بیمارانی از شرکت در تحقیقات سیستم های هوش مصنوعی برای HIV یا درمان کامل HIV وجود دارد؟


منبع: https://www.mdpi.com/2673-2688/5/2/31

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *