سرمقاله

«غروب برجام» با سکوت گذشت ‪/‬ جلال خوش‌چهره

مشاهده کل سرمقاله ها

صفحات روزنامه

اخبار آنلاین

  • بسته تخفیفی ایرانسل به مناسبت روز مادر و روز پدر
  • ارائه بسته‌های ویژه همراه اول به‌مناسبت روز مادر
  • حضور همراه اول با مجموعه‌ای از سرویس‌های فناورانه در نمایشگاه تلکام 2024
  • مشاهده کل اخبار آنلاین

    کد خبر: 17124  |  صفحه ۱۲ |   |  تاریخ: 26 مهر 1402
    ‏ChatGPT هنوز نمی‌تواند بیماری‌ها را تشخیص دهد
    گروهی از پژوهشگران ژاپنی و آمریکایی در بررسی جدیدی که روی ChatGPT انجام دادند، دریافتند که این چت‌بات هنوز نمی‌تواند از عهده تشخیص درست بیماری‌ها برآید. به گزارش ایسنا و به نقل از مدیکال اکسپرس، ChatGPT یک چت‌بات پیچیده است که با فناوری هوش مصنوعی هدایت می‌شود. این چت‌بات به طور فزاینده‌ای در زمینه‌ مراقبت‌های بهداشتی مورد استفاده قرار گرفته که یکی از آنها کمک کردن به بیماران در تشخیص دادن بیماری پیش از جستجو کردن کمک پزشکی است.
    اگرچه ChatGPT در نگاه اول بسیار سودمند به نظر می‌رسد اما اگر هوش مصنوعی در تشخیص دادن بیماری و ارائه کردن توصیه‌ها دقیق نباشد، ممکن است بیشتر از سودمند بودن به بیمار آسیب برساند. یک گروه پژوهشی از ژاپن و آمریکا اخیرا دریافتند که دقت تشخیص ChatGPT و توصیه آن به مشاوره پزشکی، به پیشرفت بیشتری نیاز دارد.
    یک گروه پژوهشی از چند موسسه به سرپرستی «دانشگاه پزشکی و دندان‌پزشکی توکیو» (TMDU) در پژوهش جدیدی، درصد پاسخ‌های درست و دقت پاسخ‌های ChatGPT را برای پنج بیماری رایج ارتوپدی از جمله سندرم تونل کارپال، میلوپاتی دهانه رحم و آرتروز مفصل ران ارزیابی کردند زیرا شکایت‌های ارتوپدی در عمل بالینی بسیار رایج هستند و تا ۲۶ درصد از دلایل مراجعه بیماران را شامل می‌شوند.
    هر یک از پژوهشگران طی یک دوره پنج روزه، پرسش‌های مشابهی را به ChatGPT فرستادند. تکرارپذیری بین روزها و قدرت توصیه در مورد این که بیمار به دنبال مراقبت پزشکی باشد نیز محاسبه و ارزیابی شد.
    «تومویوکی کورویوا» (Tomoyuki Kuroiwa) پژوهشگر ارشد این پروژه گفت: ما دریافتیم که دقت و تکرارپذیری تشخیص ChatGPT در این بیماری‌ها سازگار نیست. تشخیص ChatGPT برای سندرم تونل کارپال، ۱۰۰ درصد دقیق بود اما برای میلوپاتی دهانه رحم تنها به چهار درصد می‌رسید.
    به‌علاوه، تکرارپذیری در این بیماری‌ها از «ضعیف» تا «تقریبا عالی» متفاوت بود؛ حتی اگر پژوهشگران هر بار پرسش‌های یکسانی را وارد می‌کردند.
    همچنین ChatGPT در توصیه کردن به مشاوره پزشکی ناسازگار بود. اگرچه تقریبا ۸۰ درصد از پاسخ‌های ChatGPT، مشاوره پزشکی را توصیه می‌کردند اما تنها ۱۲.۸ درصد شامل یک توصیه قوی مطابق با استانداردهای پژوهش بودند. کورویوا گفت: بدون وجود زبان مستقیم ممکن است بیمار پس از تشخیص گیج شود یا بدتر از آن، آسیب ناشی از تشخیص اشتباه را تجربه کند.
    این اولین پژوهشی است که تکرارپذیری و درجه توصیه‌های مشاوره پزشکی ChatGPT را برای تشخیص ارزیابی می‌کند. «کوجی فوجیتا» (Koji Fujita) پژوهشگر ارشد این پروژه گفت: ChatGPT در شکل کنونی، هم از نظر دقت و هم از نظر کمک کردن به بیماران در تشخیص بیماری ناسازگار است. با توجه به خطر خطا و آسیب احتمالی ناشی از تشخیص نادرست، برای هر سیستم تشخیصی مهم است که با زبان واضح به بیماران برای جستجوی نظرات پزشکی تخصصی برای تأیید بیماری هشدار دهد.