هوش مصنوعی ایمن برای مراقبت های بهداشتی: ارائه دهندگان مزایای «یک بار در یک نسل» مدل های مقیاس بزرگ را دنبال می کنند

هوش مصنوعی ایمن برای مراقبت های بهداشتی: ارائه دهندگان مزایای «یک بار در یک نسل» مدل های مقیاس بزرگ را دنبال می کنند

آیا آماده اید تا آگاهی بیشتری را به برند خود بیاورید؟ در نظر بگیرید که برای تور AI Impact Tour اسپانسر شوید. درباره فرصت ها بیشتر بدانید اینجا.


ذیل گوگل، OpenAI و ۱۳ شرکت هوش مصنوعی دیگرنهادهای پیشرو مراقبت های بهداشتی با امضای آن موافقت کرده اند بایدن- تعهدات داوطلبانه دولت هریس برای توسعه و استفاده ایمن، مطمئن و قابل اعتماد از هوش مصنوعی.

این تعهدات که در ۱۴ دسامبر اعلام شد، منعکس کننده مجموعه ای از اقدامات برای دنبال کردن مزایای “یک بار در یک نسل” مدل های بزرگ است که می توانند وظایف مختلفی را در محیط های مراقبت های بهداشتی انجام دهند و در عین حال خطرات خود را کاهش دهند و از بیماران حساس محافظت کنند. اطلاعات بهداشتی به طور همزمان

در مجموع ۲۸ سازمان در سمت تقاضای عملیات مراقبت های بهداشتی – ارائه دهندگان و پرداخت کنندگانی که فناوری های مبتنی بر هوش مصنوعی را توسعه، خریداری و در جریان کاری خود پیاده سازی می کنند – این تعهدات را امضا کرده اند. برخی از نام‌های موجود در لیست عبارتند از CVS Health، Stanford Health، Boston Children’s Hospital، UC San Diego Health، UC Davis Health و WellSpan Health.

ساخت هوش مصنوعی برای بهینه سازی ارائه و پرداخت مراقبت های بهداشتی

حتی قبل از ظهور ChatGPT و به طور کلی هوش مصنوعی مولد، نقش هوش مصنوعی در مراقبت های بهداشتی به طور گسترده مورد بحث قرار گرفت، این شامل تشخیص زودهنگام بیماری ها و کشف درمان های جدید بود. با این حال، با همه مزایا، بسیاری سوالاتی در مورد ایمنی و قابلیت اطمینان سیستم های هوش مصنوعی در تنظیمات مراقبت های بهداشتی مطرح کرده اند. در اخیر نظرسنجی توسط GE Healthcareکه یکی از نهادهای امضاکننده در اینجا نیست، ۵۵ درصد از پزشکان گفتند که فناوری هوش مصنوعی هنوز آماده نیست. استفاده پزشکی و ۵۸ درصد تلویحا گفتند که به داده های هوش مصنوعی اعتماد ندارند.

رویداد VB

تور تاثیر هوش مصنوعی

در تور AI Impact VentureBeat که به شهر نزدیک شما می آید، با جامعه هوش مصنوعی سازمانی ارتباط برقرار کنید!

بیشتر بدانید

برای پزشکانی که بیش از ۱۶ سال تجربه داشتند، سطح شک و تردید حتی بالاتر بود و ۶۷٪ به هوش مصنوعی اعتماد نداشتند.

با این تعهدات داوطلبانه به دولت بایدن، ۲۸ ارائه دهنده مراقبت های بهداشتی و پرداخت کننده می خواهند به این شک و تردید پایان دهند و هوش مصنوعی را برای ارائه مراقبت های هماهنگ تر توسعه دهند. بهبود تجارب بیمار و کاهش فرسودگی شغلی پزشک.

این سازمان‌ها در گزارش خود خاطرنشان کردند: «ما معتقدیم هوش مصنوعی فرصتی است که یک بار در یک نسل برای تسریع پیشرفت‌ها در سیستم مراقبت‌های بهداشتی، همانطور که در فراخوان دولت بایدن برای اقدام برای مدل‌های مرزی برای کار در جهت تشخیص و پیشگیری زودهنگام سرطان ذکر شده است.» سند تعهد

برای ایجاد اعتماد کاربران پایین‌دستی (تصور کنید پزشکان و کارکنان مراقبت‌های بهداشتی) به این سیستم‌های هوش مصنوعی، سازمان‌ها متعهد شده‌اند که پروژه‌هایشان را با اصول هوش مصنوعی منصفانه، مناسب، معتبر، مؤثر و ایمن (FAVES) که توسط وزارت ایالات متحده مشخص شده است، هماهنگ کنند. بهداشت و خدمات انسانی (HHS). این به آن‌ها کمک می‌کند مطمئن شوند که راه‌حل‌هایشان در موارد استفاده هدف‌مند در دنیای واقعی، بدون در نظر گرفتن هرگونه سوگیری و خطرات شناخته شده، به بهترین شکل عمل می‌کنند.

سپس، آنها برای ایجاد اعتماد با تمرکز بر شفافیت و چارچوب مدیریت ریسک کار خواهند کرد. اولی به کاربران اطلاع می دهد که محتوایی که می بینند عمدتاً یا منحصراً توسط هوش مصنوعی تولید شده باشد و توسط انسان ویرایش یا بررسی نشده باشد. در عین حال، دومی شامل ردیابی جامع برنامه‌های کاربردی با استفاده از مدل‌ها و محاسبه مضرات بالقوه در برنامه‌ها/تنظیمات مختلف مراقبت‌های بهداشتی و مراحل کاهش آنها می‌شود.

ما سیاست‌ها و کنترل‌هایی را برای کاربردهای مدل‌های مرزی، از جمله نحوه جمع‌آوری، مدیریت و استفاده از داده‌ها، اجرا خواهیم کرد. شیوه‌های حاکمیتی ما باید شامل حفظ فهرستی از همه برنامه‌های کاربردی با استفاده از مدل‌های مرزی و تنظیم چارچوبی مؤثر برای مدیریت ریسک و حاکمیت باشد. این شرکت‌ها نوشتند: نقش‌ها و مسئولیت‌هایی برای تأیید استفاده از مدل‌های مرزی و برنامه‌های هوش مصنوعی تعریف شده است.

تحقیق و نوآوری مسئول

این سازمان‌ها ضمن تمرکز بر پیاده‌سازی‌های موجود، همچنین گفتند که به تحقیق و توسعه در زمینه نوآوری هوش مصنوعی سلامت محور – با وجود نرده‌های محافظ- ادامه خواهند داد.

برای انجام این کار، آنها قصد دارند از محیط‌های غیر تولیدی، آزمایش داده‌ها و برنامه‌های داخلی برای نمونه‌سازی اولیه برنامه‌های جدید و تایید انطباق با حریم خصوصی آنها استفاده کنند. سپس، آنها نتایج این برنامه‌ها را به‌طور مستمر نظارت خواهند کرد و اطمینان حاصل می‌کنند که در موارد استفاده مربوطه خود پاسخ‌های منصفانه و دقیقی ارائه می‌دهند. این را می توان با کمک انسان در حلقه یا ابزار اختصاصی برای انجام داد ارزیابی هوش مصنوعی و قابلیت مشاهده.

در نهایت، شرکت ها نیز بر کاهش مشکلات مرتبط با آن تمرکز خواهند کرد فناوری منبع بازدر هر کجا که استفاده می شود، و نیروی کار خود را برای توسعه و استفاده ایمن و موثر از برنامه های کاربردی با مدل های مرزی آموزش دهید.

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. جلسات توجیهی ما را کشف کنید.


منبع: https://venturebeat.com/ai/safe-ai-for-healthcare-providers-pursue-once-in-a-generation-benefits-of-large-scale-models/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *