در ماههای اخیر گزارشهایی منتشر شده که نشان میدهد برخی افراد پس از تعامل با چتباتهای هوش مصنوعی مولد مانند «چتجیپیتی» و «کوپایلوت مایکروسافت» دچار نشانههایی از روانپریشی شدهاند؛ حالتی که فرد توانایی تشخیص واقعیت از توهم را از دست میدهد.
بر اساس یک مقاله علمی که بهتازگی بهصورت پیشچاپ منتشر شده، دستکم ۱۷ مورد از بروز چنین مشکلاتی پس از استفاده از این ابزارها ثبت شده است. برخی کاربران تجربههایی شبیه «بیداری معنوی» یا حتی باور به توطئه را گزارش کردهاند. کارشناسان معتقدند هرچند هنوز شواهد کافی برای تأیید مستقیم رابطه میان هوش مصنوعی و روانپریشی وجود ندارد، اما مکانیسمهایی مطرح شده که نشان میدهد این فناوری میتواند در افراد مستعد، خطر را افزایش دهد.
به گفته روانپزشکان، چتباتها طوری طراحی شدهاند که پاسخهایی مثبت و شبیه به گفتوگوی انسانی ارائه دهند. همین ویژگی ممکن است باورهای توهمی یا پارانوئیدی کاربران را تقویت کند. پژوهشگران هشدار دادهاند که مکالمات مداوم با چتباتها میتواند به یک حلقه بازخورد تبدیل شود؛ جایی که مدل هوش مصنوعی باورهای نادرست فرد را بازتاب داده و حتی تقویت کند.
با این حال متخصصان تأکید دارند بیشترین خطر متوجه افرادی است که سابقه مشکلات روانی، استرس شدید یا سوءمصرف مواد داشتهاند. همچنین افراد منزوی که تعامل اجتماعی محدودی دارند، بیش از دیگران در معرض چنین اثراتی قرار میگیرند.
شرکتهای سازنده هوش مصنوعی نیز نسبت به این نگرانیها بیتفاوت نماندهاند. اوپنایآی اعلام کرده روی بهروزرسانیهایی کار میکند تا پاسخهای «چتجیپیتی» در شرایط حساس محتاطانهتر باشد و حتی یک روانپزشک بالینی برای بررسی اثرات این ابزار بر سلامت روان استخدام کرده است. شرکت آنتروپیک نیز قابلیت توقف مکالمه را در شرایط پرخطر به چتبات خود، «کلود»، افزوده است.
با وجود این اقدامات، پرسش اصلی همچنان باقی است: آیا چتباتها تنها یک محرک هستند یا واقعاً میتوانند جرقهای برای شروع روانپریشی باشند؟
کد خبر ۲۰۱۰۴۰۶۲۹.۳۵۹
منبع: نیچر