شرکت های بیمه در نبرد با تقلبی که میلیاردها هزینه دارد، روی هوش مصنوعی و تجزیه و تحلیل داده های انبوه شرط بندی می کنند


GCShutter/Getty Images



  • تقلب هر ساله حدود ۳۰۸٫۶ میلیارد دلار برای بیمه‌گران در ایالات متحده هزینه دارد.
  • تقریباً ۶۰ درصد از بیمه‌گران در حال حاضر از هوش مصنوعی برای مبارزه با کلاهبرداری استفاده می‌کنند.
  • توسعه دهندگان شخص ثالث در حال آزمایش ابزارهای هوش مصنوعی برای کمک به بازرسان کلاهبرداری هستند.
  • این مقاله بخشی از “بسازش،” مجموعه ای درباره فناوری دیجیتال و روندهای نوآوری که صنایع را مختل می کند.
تبلیغات

تبلیغات

شرکت های بیمه با چالش های زیادی روبرو هستند. قبلا، پیش از این گرفتار تورم و تسخیر شده توسط بحران آب و هواآنها همچنین در یک مسابقه تسلیحاتی علیه تقلب هستند.

روز به روز این جنگ محاسباتی ممکن است به اندازه آلن تورینگ که در مقابل یک کامپیوتر ۷ فوتی برای رمزگشایی کد انیگما ایستاده، دراماتیک نباشد. اما نبرد بیمه و تقلب از همین فرض پیروی می کند: همانطور که کلاهبرداران از فناوری جدید استفاده می کنند، آشکارسازها نیز باید.

بسیاری از شرکت های بیمه با این موضوع موافق هستند هوش مصنوعی، بیش از هر فناوری دیگری، تغییر دهنده بازی خواهد بود در این فضا طی پنج سال آینده.

نیروی محرکه این مسابقه پول است و بسیاری از آن. از ۲٫۵ تریلیون دلار آمریکایی‌ها هر سال به صنعت بیمه پرداخت می‌کنند، ائتلاف علیه تقلب بیمه تخمین می‌زند که بیمه‌گران هزینه پرداخت می‌کنند. ۳۰۸٫۶ میلیارد دلار از آن در مورد ادعاهای جعلی. این بدان معناست که ۱۲ درصد از مبلغی که مشتریان در ایالات متحده می پردازند به مدعیان نادرست منتقل می شود.

تبلیغات

تبلیغات

زیان های ناشی از تقلب بیمه ای هستند تقریبا دو برابر ۳۰ سال پیش. در خط، وجوهی وجود دارد که در غیر این صورت می‌توانند به سمت پرداخت‌های بالقوه تغییر زندگی مصرف شوند. و بیمه‌گران بسیار بیشتر از سایر صنایع آنلاین گرمای ناشی از کلاهبرداران دیجیتال را احساس می‌کنند.

این آنها را مشتاق کرده است تا از تیم های ضد کلاهبرداری خود استفاده کنند تا ببینند هوش مصنوعی چه کارهای دیگری می تواند انجام دهد.

کلاهبرداران از هوش مصنوعی استفاده می کنند

تقریباً ۶۰ درصد از شرکت‌های بیمه در حال حاضر از هوش مصنوعی مانند یادگیری ماشینی برای کمک به شناسایی کلاهبرداری‌های قدیمی استفاده می‌کنند، چه رسد به چالش جدید کلاهبرداران که هوش مصنوعی را در نوک انگشتان خود دارند.

اسکات کلیتون، رئیس بخش کلاهبرداری از ادعاها در گروه بیمه زوریخگفت کم عمق – دستکاری تصاویر ساخته شده به صورت دستی با کمک نرم افزار ویرایش عکس – او را در شب بیدار نگه دارید. اما سیل جعلیات مبتنی بر هوش مصنوعی، یا “دیپ فیک،” تهدید دیگری در افق است.

تبلیغات

تبلیغات

“من به نوعی نیمه شوخی می کنم که وقتی دیپ فیک به طور قابل توجهی ما را تحت تأثیر قرار می دهد، احتمالاً زمان آن فرا رسیده است که از آن خارج شوم.” کلایتون گفت. “زیرا در آن مرحله، مطمئن نیستم که بتوانیم با آن همگام باشیم.”

هد شات اسکات کلیتون

اسکات کلایتون، رئیس بخش تقلب در مطالبات در گروه بیمه زوریخ.

با حسن نیت اسکات کلیتون



و این مشکل آینده نیست. Arnaud Grapinet، دانشمند ارشد داده‌های Shift Technology، گفت که در ماه‌های اخیر، شاهد افزایش ادعاهای جعلی در داده‌هایش بوده است.

“نسبتی که این کار را انجام می دهند هنوز کم است، اما مسئله این است که مردم این کار را انجام می دهند، آن را در مقیاس انجام می دهند،” گریپنت به اینسایدر گفت.

مطالعه AXA Research Fund متوجه شد که در بازار خود در اسپانیا متقلبانه ترین ادعاها برای حوادث واقعی هستند، اما مدعی خسارت های اغراق آمیز را جبران می کند. این کلاهبرداران فرصت طلب معمولا آن را فقط یک بار و با قیمتی کمتر از ۶۰۰ یورو یا حدود ۶۳۵ دلار جعل می کنند.

تبلیغات

تبلیغات

از سوی دیگر، حدود ۴۰ درصد از کلاهبرداری ها از پیش برنامه ریزی شده است و این موارد می تواند بیش از ۳۰۰۰ یورو یا حدود ۳۱۷۰ دلار برای شرکت های بیمه هزینه داشته باشد.

این مقوله پرهزینه‌تر جایی است که دیپ‌فیک‌ها شروع به ورود کرده‌اند. برخلاف تقلب‌های مجردی که توسط کلاهبرداران فرصت‌طلب انجام می‌شود، کسانی که از دیپ‌فیک استفاده می‌کنند، قدرت ایجاد صدها تصویر جعلی را دارند.

هد شات آرنو گراپینت

Arnaud Grapinet، دانشمند ارشد داده های Shift Technology.

فناوری شیفت



بنابراین تیم های ضد کلاهبرداری به کیت های توسعه نرم افزاری مانند Truepic مایکروسافت و منبع امن OpenOrigins که داده های دوربین را ضبط می کند که صحت یک تصویر را تأیید می کند. در حالی که این فناوری‌ها به تنهایی قادر به شناسایی تقلب‌های فرصت‌طلبانه نیستند، مطمئناً در حال تبدیل شدن به بخشی از مجموعه ابزار مدرن بازپرس کلاهبرداری هستند.

فناوری هوش مصنوعی فعلی در بیمه، هشدارهای کلاهبرداری را ارائه می‌کند و افزوده‌های GenAI دستیاران شخصی خواهند بود

هنگامی که کنترل‌کننده‌ها یک ادعا را بررسی می‌کنند، ممکن است یک هشدار پرچم‌گذاری فعالیت مشکوک را نیز دریافت کنند. در آن مرحله، به یک انسان منتقل می شود تا بررسی کند که آیا واقعاً تقلب وجود دارد یا خیر.

تبلیغات

تبلیغات

“واقعیت این است که ما هنوز از نظر استفاده از هوش مصنوعی واقعی در تشخیص کلاهبرداری نسبتا نابالغ هستیم.” کلایتون گفت.

اما انتظار می رود بازار کشف تقلب در بیمه رشد کند از ۵ میلیارد دلار در سال ۲۰۲۳ به ۱۷ میلیارد دلار در سال ۲۰۲۸ رسید.

بیشتر برنامه نویسی در سیستم های کشف تقلب فعلی است مبتنی بر قوانین. اگر یک بیمه‌گر به برنامه بگوید که نوع خاصی از شواهد مشکوک است، مانند فراوانی غیرعادی بارگذاری‌ها، موتور می‌داند که آن موارد را به بازرسان علامت‌گذاری کند.

سیستم‌های مبتنی بر قوانین برای توسعه‌دهندگان شرکت‌های بیمه کارایی نسبتاً پایینی برای استفاده و نگهداری دارند، اما اضافه کردن قوانین جدید یا دانستن اینکه کدام قوانین در وهله اول به کد سخت می‌آیند نیز دشوار است.

تبلیغات

تبلیغات

در ۱۰ سال گذشته، توسعه دهندگان شخص ثالث مختلف دوست دارند تازه، IBMو فناوری شیفت خیاطی را شروع کرده اند فراگیری ماشین سیستم ها به شرکت های بیمه به جای صرف قوانین کدگذاری سخت برای موتور که باید از آنها پیروی کند، دانشمندان داده می توانند هزاران نمونه از مواد تقلبی را به آن نشان دهند و الگوهای تقلبی را به تنهایی کشف کنند.

تصویری از رابط صفحه وب Shift Technology

نرم افزار تشخیص تقلب Shift Technology شبکه ای از ادعاهای جعلی را شناسایی و برجسته می کند.

فناوری شیفت



برای مثال، Shift Technology میلیون‌ها مطلب از مشتریان و شرکای داده‌اش را به مدل خود نشان داده است، مانند ادعاها، سوابق پزشکی، مکاتبات بین وکلا، اولین اطلاعیه از دست دادن و تصاویر خسارت. نمایندگان این شرکت گفتند که مدل فعلی آن سه برابر بیشتر از ابزارهای دستی یا مبتنی بر قوانین کلاهبرداری می کند.

و توسعه دهندگان در تلاش هستند تا از طریق سیستم های یادگیری ماشینی فعلی خود، هوش مصنوعی را برای بیمه اعمال کنند.

Grapinet و تیم او در حال اجرای آزمایشی یک سیستم هوش مصنوعی مولد هستند تا به محققان در انجام کارهای خسته کننده مانند بررسی اسناد ۱۰۰ صفحه ای کمک کنند. هرچه زمان کمتری برای خواندن سوابق صرف کنند، بیشتر می توانند برای داوری پرونده های پیچیده صرف کنند.

تبلیغات

تبلیغات

برنامه های کاربردی فناوری بیمه هوش مصنوعی با در دسترس بودن داده ها و مقررات به چالش کشیده می شوند

یکی از اولویت های اصلی Shift Technology افزودن شفافیت به هوش مصنوعی است.

“وقتی هوش مصنوعی با انسان‌ها در تعامل است، چیزی که بسیار مهم است، توضیح‌پذیری است.” گریپنت گفت. “شما نمی توانید فقط یک جعبه سیاه داشته باشید.”

در حالی که شفافیت در میان دغدغه‌های اصلی بیمه‌گران برای استفاده از هوش مصنوعی قرار دارد، از آن پیشی گرفته است نگرانی در مورد کیفیت داده، کمبود داده، و تعصب مدل.

“برای هر بیمه‌گر معینی، ساختن مدل کلاهبرداری داخلی خود برای آنها بسیار دشوار است زیرا برای آموزش هوش مصنوعی و یادگیری و بهبود در طول زمان به داده‌های زیادی نیاز دارید.” راب گالبریت، نویسنده “پایان بیمه همانطور که می دانیم.”

تبلیغات

تبلیغات

هد شات راب گالبریت

راب گالبریت، نویسنده “پایان بیمه همانطور که می دانیم.”

استودیو جنیفر لیندبرگ



از آنجایی که بیمه‌گران اشتهای خود را برای نرم‌افزار شخص ثالث در مقابل توسعه یک سیستم اختصاصی می‌سنجید، آن استارت‌آپ‌های شخص ثالث و شرکت‌های سازمانی از توانایی خود برای میزبانی از مجموعه داده‌های گسترده و بین بازار استفاده می‌کنند.

“با دیدن مواردی که فقط به یک بیمه گر مرتبط نیستند، نمی توانید آن چیزهایی را ببینید که به بازپرس بیمه گریزل ۵۰ ساله که واقعاً در کار خود خوب است، اما وسعت لازم برای دیدن را ندارد، نمی بینید. همه چیزهایی که در جریان است” راب مورتون، رئیس ارتباطات شرکتی در Shift Technology گفت.

اما با تغییر بیشتر بررسی‌ها به هوش مصنوعی، تنظیم‌کننده‌هایی نیز وجود دارند که باید با آن‌ها مبارزه کنند. کارکنان با تخصص و پهنای باند برای مدیریت انطباق داده ها و اسناد تقاضای زیادی دارند.

سپس این سؤال مطرح می شود که چگونه می توان ارائه دهندگان شخص ثالث را تنظیم کرد، و بیمه گرانی که با آن ارائه دهندگان کار می کنند، به ویژه از آنجایی که تعداد انگشت شماری از شرکت ها ممکن است به ابزاری برای بخش بزرگی از صنعت تبدیل شوند.

تبلیغات

تبلیغات

“این هنوز یک منطقه بسیار در حال تکامل است. بهترین شیوه ها به طور کامل در سنگ ساخته نشده اند،” گالبریت گفت.

و با مدل‌های شخص ثالث و مدل‌های اختصاصی به طور یکسان، مدل‌های هوش مصنوعی می‌توانند برای شناسایی اشکال تقلبی که از مواد آموزشی خود یاد نگرفته‌اند، تحت فشار قرار گیرند.

“ما فقط به اندازه چیزهایی هستیم که می دانیم،” کلایتون گفت. “هرچه بیشتر سرمایه گذاری کنیم و از نظر ابزارهای تشخیص بیشتر هزینه کنیم، بیشتر پیدا می کنیم.”

عکس سوئیچ و لامپ

برای اطلاعیه های Insiders ثبت نام کنید! با آنچه می خواهید بدانید به روز باشید.

در اعلان‌های فشار مشترک شوید

در ادامه بخوانید

فن آوری
هوش مصنوعی
تبلیغات


نماد بستن دو خط متقاطع که “X” را تشکیل می دهند. راهی برای بستن یک تعامل یا رد کردن یک اعلان را نشان می دهد.



منبع: https://www.businessinsider.com/insurance-fraud-artificial-intelligence-detection-2023-10

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *