کمیته رکن چهارم – مطالعهای جدید از سوی دانشگاه آکسفورد نشان میدهد که دریافت توصیههای سلامت از چتباتهای هوش مصنوعی برای بسیاری از کاربران میتواند چالشبرانگیز و حتی گمراهکننده باشد.

به گزارش کمیته رکن چهارم، در شرایطی که صفهای انتظار طولانی و هزینههای بالا افراد را به سمت استفاده از ابزارهای خودتشخیصی سوق میدهد، حدود یک ششم بزرگسالان در ایالات متحده دستکم ماهی یک بار برای دریافت توصیههای سلامت از چتباتهایی مانند ChatGPT استفاده میکنند. اما نتایج یک پژوهش تازه حاکی از آن است که این ابزارها نهتنها کمک چندانی به تصمیمگیری درست نمیکنند، بلکه ممکن است شدت بیماریها را نیز دستکم بگیرند.
این مطالعه توسط تیمی به رهبری آدام مَهدی از مؤسسه اینترنت آکسفورد انجام شده و در آن، حدود ۱۳۰۰ نفر از ساکنان بریتانیا در سناریوهای پزشکی از پیشنوشتهشده شرکت کردند. شرکتکنندگان باید با استفاده از چتباتها یا روشهای شخصی، نوع مشکل پزشکی را تشخیص داده و اقدام مناسب (مراجعه به پزشک یا بیمارستان) را انتخاب میکردند.
در این پژوهش از مدلهایی مانند GPT-4o، Llama 3 و Command R+ استفاده شده است. یافتهها نشان میدهد کاربران در تعامل با چتباتها اغلب جزئیات حیاتی را فراموش میکنند یا پاسخهایی دریافت میکنند که ترکیبی از اطلاعات مفید و گمراهکننده است. آدام مَهدی در اینباره گفته است: «پاسخهایی که افراد دریافت میکردند، تفسیر دشواری داشت و اغلب باعث تصمیمگیری نادرست میشد.»
این پژوهش در شرایطی منتشر شده که شرکتهای بزرگی مانند اپل، آمازون و مایکروسافت در حال توسعه ابزارهای مبتنی بر هوش مصنوعی برای ارتقاء خدمات پزشکی هستند. با این حال، کارشناسان همچنان در مورد آمادگی این فناوری برای استفاده در حوزههای حساس بهویژه سلامت، اختلاف نظر دارند. انجمن پزشکی آمریکا نیز استفاده از چتباتها برای تصمیمات بالینی را توصیه نمیکند.
مَهدی در پایان تأکید کرده است: «تصمیمگیری درباره سلامت باید بر اساس منابع اطلاعاتی معتبر باشد و چتباتها نیز پیش از استفاده عمومی، مانند داروها در محیط واقعی آزمایش شوند.»
