آزمون «چت‌جی‌پی‌تی» در پزشکی قانونی؛ توانمند در تئوری، ناتوان در قضاوت‌های پیچیده

آزمون «چت‌جی‌پی‌تی» در پزشکی قانونی؛ توانمند در تئوری، ناتوان در قضاوت‌های پیچیده
فهرست مطالب

پژوهشگران استرالیایی در مطالعه‌ای تازه، عملکرد مدل هوش مصنوعی «چت‌جی‌پی‌تی» را در یک معاینه تخصصی حوزه آسیب‌شناسی قانونی ارزیابی کردند؛ حوزه‌ای بسیار حساس که تعیین علت مرگ و تحلیل دقیق شواهد کالبدشکافی در آن نقش کلیدی دارد.

این پژوهش که توسط محققان دانشگاه مانش انجام شده، با هدف سنجش میزان کارآمدی مدل‌های زبانی بزرگ در مدیریت دانش پزشکی تخصصی و امکان استفاده از آن‌ها در پرونده‌های واقعی پزشکی قانونی صورت گرفته است. آسیب‌شناسی قانونی شاخه‌ای از علم آسیب‌شناسی است که تمرکز آن بر تعیین علت مرگ از طریق معاینه جسد و تفسیر دقیق یافته‌هاست.

در این بررسی، پاسخ‌های چت‌جی‌پی‌تی با استفاده از یک آزمون آزمایشی چندوجهی، برگرفته از مؤلفه‌های اصلی آزمون فلوشیپ آسیب‌شناسی قانونی «کالج سلطنتی پاتولوژیست‌های استرالیا» ارزیابی شد. این آزمون شامل پرسش‌های تشریحی، تحلیل تصاویر و گزارش‌های موردی بود. تصحیح پاسخ‌ها به‌صورت کورکورانه و توسط ممتحنان باتجربه و براساس معیارهای رسمی انجام شد و دقت علمی، ساختار استدلال و کیفیت ارتباط مورد سنجش قرار گرفت.

نتایج نشان داد چت‌جی‌پی‌تی در پرسش‌هایی که به دانش تثبیت‌شده و اطلاعات نظری متکی بودند، عملکرد قابل قبولی دارد و حتی در برخی موارد نمرات مناسبی کسب می‌کند. با این حال، در وظایفی که نیازمند استدلال پیچیده، تفسیر تصاویر کالبدشکافی یا تحلیل وابسته به زمینه بودند، ضعف‌های جدی از خود نشان داد. نکته قابل توجه این بود که پاسخ‌های مدل اغلب با لحنی روان و مطمئن ارائه می‌شدند؛ اعتمادبه‌نفسی که لزوماً با دقت علمی هم‌خوانی نداشت.

پژوهشگران تأکید می‌کنند که چت‌جی‌پی‌تی قادر است دانش جاافتاده آسیب‌شناسی قانونی را بازتولید کند، اما در انجام وظایف سطح بالاتر و قضاوت‌های تخصصی، با محدودیت‌های جدی مواجه است و گاهی خروجی‌های گمراه‌کننده ارائه می‌دهد. به گفته آن‌ها، استفاده از این ابزار ممکن است در امور آموزشی یا اداری کم‌ریسک قابل قبول باشد، به شرط آنکه نتایج آن حتماً توسط متخصصان واجد شرایط بررسی شود.

در جمع‌بندی این مطالعه آمده است که افراد غیرمتخصص نباید برای دریافت اطلاعات یا تصمیم‌گیری در حوزه حساس پزشکی قانونی به مدل‌های هوش مصنوعی اتکا کنند و برای استفاده ایمن و مسئولانه از چنین فناوری‌هایی، ارزیابی و پایش مستمر آن‌ها ضروری است.

کد خبر ۲۰۱۰۴۱۰۰۸.۸۳۶

منبع: اسپرینگ.کام

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *