ربات‌ها با روپوش سفید برای معاینه می‌آیند

یافته‌های یک مطالعه علمی نشان می‌دهد در حالی که هوش مصنوعی نمی‌تواند جایگزین پزشکان شود، اما قادر است پاسخ‌های دقیق و همدلانه‌ای برای بیماران ارائه دهد.
کد خبر: ۶۵۰۱۱۶
تاریخ انتشار: ۱۹ بهمن ۱۴۰۲ - ۱۷:۰۰ - 08February 2024

به گزارش گروه سایر رسانه‌های دفاع‌پرس، مطالعه‌ای جدید که در مجله پزشکی «جاما اینترنال مدیساین» (JAMA Internal Medicine) منتشر شده، نشان می‌دهد ابزار‌های هوش مصنوعی می‌توانند به پزشکان در تهیه پاسخ‌های نوشتاری باکیفیت و همچنین تعامل همدلانه با بیماران کمک کنند.

این مطالعه، عملکرد «چت جی‌پی‌تی» (ChatGPT) را با پاسخ‌های مکتوب‌شده پزشکان در انجمن آنلاین «اَسک‌داکس» (AskDocs) مقایسه کرده است. توضیح اینکه اَسک‌داکس فضایی است که در آن افراد می‌توانند به صورت عمومی پرسش‌های پزشکی خود را مطرح کنند و متخصصان مراقبت‌های بهداشتیِ تاییدشده نیز به آن‌ها پاسخ می‌دهند.

ربات‌ها با روپوش سفید برای معاینه می‌آیند

محققان به طور تصادفی ۱۹۵ پاسخ تاییدشده پزشکان به یک پرسش عمومی در این پلتفرم را نمونه‌برداری کرده و سپس همین سوال را از ChatGPT پرسیده‌اند. سپس، یک گروه سه نفره از متخصصان مراقبت‌های بهداشتی مستقل، بدون اینکه بدانند چه کسی به سوال پاسخ داده، بهترین پاسخ را انتخاب کرده‌اند. در ادامه کیفیت اطلاعات ارائه شده و همچنین سطح همدلی یا «عملکرد بالینی» مورد ارزیابی قرار گرفته است.

متخصصان مراقبت‌های بهداشتی مستقل، در ۷۹درصد موارد پاسخ‌های ChatGPT را انتخاب کرده‌اند. پاسخ‌های ChatGPT در قیاس با پاسخ‌های پزشکان، ۳.۶ برابر از نظر کیفیت و ۹.۸ برابر از نظر همدلی، امتیاز بالاتری دریافت داشته است.

همچنین، پاسخ‌های ChatGPT به طور قابل توجهی طولانی‌تر بوده است. (به طور متوسط ۲۱۱ کلمه)، در حالی که پاسخ‌های پزشکان بسیار کوتاه‌تر (به طور متوسط ۵۲ کلمه) به ثبت رسیده است. تیم بالینی که پاسخ‌ها را ارزیابی می‌کرد، دریافته که پاسخ‌های ChatGPT هم دقیق و هم ظریف است.

روند‌های نوظهور حضور هوش مصنوعی در عرصه پزشکی

در اینجا چهار روند نوظهور در ارتباط با آینده تقویت پاسخگویی پزشکان به بیماران با استفاده از هوش مصنوعی آمده است:

۱- تحقیق در مورد ابزار‌های هوش مصنوعی که در محیط‌های بالینی ادغام شده‌اند، مفید خواهد بود.

این مطالعه نشان نمی‌دهد که هوش مصنوعی می‌تواند جایگزین پزشکان شود و در یک محیط بالینی انجام نشده است، اما پتانسیل دستیار‌های هوش مصنوعی مانند ChatGPT را برای کمک به پزشکان در پاسخ‌دهی به بیماران برجسته می‌کند.

گام بعدی بررسی عملکرد دستیار‌های هوش مصنوعی در محیط‌های بالینی (به جای یک بستر عمومی رسانه‌های اجتماعی) خواهد بود، از جمله اینکه چگونه این دستیار‌ها در صورت ادغام یکپارچه با پلتفرم‌های امنِ ثبتِ الکترونیکِ پزشکی (جایی که پزشکان به سؤالات خصوصی مستقیم بیماران پاسخ می‌دهند)، عمل می‌کنند.

نوع سوالات در یک محیط بالینی خصوصی ممکن است به موارد فردی مختص شده باشد و به شیوه‌ای متفاوت از سؤالات مطرح شده در بستر‌های عمومی نوشته شود.

پرسش‌های خصوصی بیماران ممکن است این را پیش‌فرض قرار دهند که پزشک از قبل در مورد شرایط آن‌ها مطلع است یا به مطالبی اشاره کند که پیشتر به صورت حضوری مورد بحث قرار گرفته است. این نوع سوال‌ها ممکن است چالش‌های متفاوتی برای ChatGPT ایجاد کند.

ربات‌ها با روپوش سفید برای معاینه می‌آیند

۲- کمک هوش مصنوعی می‌تواند از فرسودگی و رنج عاطفی پزشکان و متخصصان مراقبت‌های بهداشتی بکاهد.

دستیار‌های هوش مصنوعی برخلاف انسان‌ها احساس همدردی واقعی ندارند و بنابراین، در معرض رنج عاطفی ناشی از همدردی با درد دیگران قرار نمی‌گیرند. فرسودگی شغلی پزشکان رو به افزایش است و تا حد زیادی به حجم زیاد کار‌های اداری نسبت داده می‌شود.

براساس گزارش سال ۲۰۲۳ «فرسودگی شغلی و افسردگی پزشکان» موسسه «مدسکیپ»، ۵۳ درصد از پزشکان دچار فرسودگی شغلی هستند و تقریباً ۲۵درصد از آن‌ها علائم افسردگی را نشان می‌دهند.

مهم‌ترین عامل موثر در فرسودگی، وظایف اداری و دیوان‌سالاری بوده است، به طوری که پزشکان گزارش می‌دهند بیش از ۹ ساعت در هفته صرف امور ثبت و مستندات می‌کنند. ابزار‌های هوش مصنوعی می‌توانند با ارائه پیش‌نویس‌هایی برای برقراری ارتباط با بیماران، بخشی از این بار کاری را کاهش دهند.

۳- آموزش محدودیت‌های هوش مصنوعی از جمله تعصب، برای پزشکان ضروری است.

مدل‌های هوش مصنوعی هنوز در زمینه «تعصب، توهم و گاهی اوقات محاسبات اشتباه» محدودیت‌هایی دارند. بنابراین، نظارت پزشک و متخصصان مراقبت‌های بهداشتی همچنان ضروری است، زیرا ارتباطات پزشکی بر سلامت بیماران تاثیر می‌گذارد. آموزش و آگاهی‌رسانی به پزشکان در مورد این محدودیت‌های هوش مصنوعی باید انجام شود تا از ارسال پیش‌نویس‌های تولیدشده از سوی هوش مصنوعی بدون بررسی توسط پزشک جلوگیری شود.

۴-تاثیر بلندمدت ابزار‌های هوش مصنوعی بر قضاوت بالینی، تصمیم‌گیری و روابط بین فردی پزشکان در حال حاضر ناشناخته است.

اثرات بلندمدت وابستگی به ابزار‌های هوش مصنوعی مشخص نیست. عواقب تکیه بیش از حد پزشکان به این ابزار‌ها برای تولید پاسخ به بیماران چیست؟ آیا تعصبی که در داده‌های آموزشی هوش مصنوعی وجود دارد، بر رفتار، تصمیم‌گیری یا روابط بین فردی پزشک تأثیر خواهد گذاشت؟ پاسخ به این پرسش‌ها نامشخص است و کشف اینکه هوش مصنوعی چطور رابطه‌ی پزشک و بیمار را تغییر می‌دهد، بخشی از این جست‌وجو خواهد بود.

جمع‌بندی

هوش مصنوعی ظرفیت زیادی برای بهبود مراقبت‌های بهداشتی دارد. ابزار‌های هوش مصنوعی می‌توانند به پزشکان در تشخیص بیماری‌ها، ارائه درمان‌های موثرتر و بهبود ارتباطات با بیماران کمک کنند.

با این حال، استفاده از هوش مصنوعی در مراقبت‌های بهداشتی چالش‌هایی نیز دارد. یکی از این چالش‌ها، محدودیت‌های هوش مصنوعی است. مدل‌های هوش مصنوعی هنوز در زمینه‌هایی مانند تعصب، توهم و محاسبات اشتباه، محدودیت‌هایی دارند. این محدودیت‌ها می‌توانند منجر به خطا‌های تشخیصی یا درمانی شوند.

چالش دیگر، تاثیر بلندمدت هوش مصنوعی بر رابطه پزشک و بیمار است. اگر پزشکان بیش از حد به ابزار‌های هوش مصنوعی تکیه کنند، ممکن است مهارت‌های بالینی خود و رابطه شخصی با بیماران را از دست بدهند.

برای غلبه بر این چالش‌ها، آموزش و نظارت بر پزشکان در مورد محدودیت‌های هوش مصنوعی ضروری است. همچنین، باید تحقیقات بیشتری در مورد تاثیر بلندمدت هوش مصنوعی بر مراقبت‌های بهداشتی انجام شود.

در مجموع، هوش مصنوعی می‌تواند ابزاری قدرتمند برای بهبود مراقبت‌های بهداشتی باشد. با این حال، استفاده از آن باید با دقت و آگاهی انجام شود تا جلوی بروز خطا‌ها و عواقب منفی احتمالی را بگیرد.

منبع: ایرنا

انتهای پیام/ ۱۳۴

نظر شما
پربیننده ها