پژوهشی از دانشگاه استنفورد نسبت به خطرات استفاده از چتباتهای درمانی مبتنی بر مدلهای زبانی بزرگ هشدار داد. این چتباتها ممکن است کاربران مبتلا به اختلالات روانی را دچار انگزدایی کنند و پاسخهایی نامناسب یا حتی خطرناک ارائه دهند.
مطالعهای با عنوان «ابراز انگزدایی و پاسخهای نامناسب، مانع جایگزینی ایمن مدلهای زبانی بزرگ به جای درمانگران سلامت روان» پنج چتبات درمانی را براساس معیارهای استاندارد رفتار یک درمانگر انسان مورد ارزیابی قرار داده است. نتایج نشان داد که این ابزارها نسبت به برخی بیماریها مانند وابستگی به الکل و اسکیزوفرنی انگزدایی بیشتری نسبت به بیماریهایی مثل افسردگی دارند.
در آزمایش دوم، پاسخهای چتباتها به موارد جدی مانند افکار خودکشی و هذیانگویی بررسی شد که در برخی موارد چتباتها به جای ارائه پاسخ حمایتی، پاسخهای نامرتبط و نگرانکنندهای دادند.
محققان تاکید دارند که این فناوریها هنوز برای جایگزینی درمانگران انسانی آماده نیستند، اما میتوانند در نقشهای کمکی مانند آموزش، مدیریت مالی و حمایتهای جانبی به کار گرفته شوند.
دکتر نیک هابر، از مؤلفان این پژوهش، میگوید: «مدلهای زبانی پتانسیل بالایی برای آینده درمان دارند، اما باید با دقت و انتقاد در مورد نقش دقیق آنها فکر کنیم.»
این تحقیق قرار است در کنفرانس ACM درباره عدالت، پاسخگویی و شفافیت بهزودی ارائه شود.
کد خبر ۲۰۱۰۴۰۴۲۴.۰۲۶
منبع: تک کرانچ
2 دیدگاه در “هشدار درباره خطرات استفاده از چتباتهای هوش مصنوعی برای رواندرمانی”
This was really well done. I can tell a lot of thought went into making it clear and user-friendly. Keep up the good work!
I wasn’t sure what to expect at first, but this turned out to be surprisingly useful. Thanks for taking the time to put this together.