مطالعهای جدید از محققان دانشگاه آکسفورد نشان میدهد که استفاده از چتباتهای هوش مصنوعی برای ارائه مشاوره پزشکی میتواند خطرناک باشد.
هشدار محققان دانشگاه آکسفورد: مشاوره پزشکی با هوش مصنوعی خطرناک است
اگر شما هم جزو میلیونها نفری هستید که برای تشخیص بیماری خود به سراغ ChatGPT یا دیگر چتباتهای هوش مصنوعی میروید، بهتر است دست نگه دارید. مطالعهای جدید از دانشگاه آکسفورد نشان میدهد که اعتماد به هوش مصنوعی برای تصمیمگیریهای پزشکی میتواند خطرناک باشد.
براساس گزارش BBC، مدلهای هوش مصنوعی در حوزه پزشکی پاسخهای ناسازگار و گاهی نادرست ارائه میدهند. دکتر ربکا پین، پزشک ارشد این مطالعه، هشدار میدهد که پرسیدن علائم بیماری از چتباتها ممکن است کاربران را در معرض خطر قرار دهد.
نتایج پژوهش
این مطالعه روی ۱۳۰۰ نفر انجام شد و شرکتکنندگان در سناریوهای مختلفی مانند سردرد شدید یا خستگی مداوم پس از زایمان قرار گرفتند. نتایج نشان داد افرادی که از هوش مصنوعی استفاده کردند، تصمیمات بهتری نسبت به کسانی که از روشهای سنتی مانند جستجو در گوگل استفاده میکردند، نگرفتند.
مشکل اصلی چیست؟
هوش مصنوعی ممکن است چند تشخیص مختلف ارائه دهد و کاربر را در حدسزدن گزینه صحیح تنها بگذارد. دکتر آدام مهدی توضیح میدهد:
«مردم اطلاعات را به صورت تدریجی به چتبات میدهند و همه جزئیات را نمیگویند؛ دقیقاً همینجاست که مشکل ایجاد میشود.»
خطرهای مشاوره پزشکی با هوش مصنوعی
پژوهشگران متوجه شدند که بین کاربر و هوش مصنوعی یک شکست ارتباطی دوطرفه وجود دارد. کاربران نمیدانستند هوش مصنوعی برای ارائه مشاوره دقیق به چه جزئیاتی نیاز دارد و پاسخهای مدل به شدت به نحوه جملهبندی سؤال وابسته بود. محققان میگویند:
«این تحلیل نشان داد که تعامل با انسانها حتی برای مدلهای هوش مصنوعی پیشرفته، یک چالش بزرگ است.»

هوش مصنوعی در دنیای واقعی پزشکی همچنان پرریسک است
برخلاف تستهای استاندارد پزشکی که مدلهای هوش مصنوعی در آن نمره قبولی میگیرند، در دنیای واقعی و هنگام تعامل با افراد غیرمتخصص این سیستمها دچار اشتباه میشوند. بنابراین، تکیه صرف بر آنها برای تصمیمگیری درباره مراجعه به پزشک عمومی یا اورژانس، ریسک بالایی دارد.
دکتر امبر چایلدز از دانشگاه ییل توضیح میدهد که چون چتباتها با دادههای فعلی پزشکی آموزش دیدهاند، همان سوگیریها و تعصبات تاریخی در پزشکی را بازتولید میکنند. او میگوید:
«یک چتبات فقط به اندازه پزشکان باتجربهای که دادههایش را تولید کردهاند خوب است، و آن هم کامل نیست.»
با این حال، برخی کارشناسان معتقدند که نسخههای تخصصی پزشکی عرضهشده توسط شرکتهایی مانند OpenAI و آنتروپیک ممکن است عملکرد متفاوتی داشته باشند. هدف باید بهبود تکنولوژی همراه با قوانین نظارتی شفاف و گاردریلهای پزشکی باشد تا امنیت بیماران تضمین شود.
یافتههای این پژوهش در ژورنال Nature Medicine منتشر شده است.