دردسر افراد مبتلا به اوتیسم با تغییر مدل‌های «چت‌جی‌پی‌تی»

دردسر افراد مبتلا به اوتیسم با تغییر مدل‌های «چت‌جی‌پی‌تی»
فهرست مطالب

با گسترش نقش چت‌بات‌ها در حمایت روانی و اجتماعی، کارشناسان نسبت به پیامدهای ناخواسته این فناوری هشدار می‌دهند؛ به‌ویژه زمانی که پای افراد نورودایورجنت و مبتلا به اوتیسم در میان است.

یکی از پژوهشگران حوزه هوش مصنوعی با تأکید بر این‌که افراد نورودایورجنت در برخی زمینه‌ها می‌توانند حتی عملکرد مؤثرتری داشته باشند، نسبت به استفاده از ابزارهای هوش مصنوعی که پشتوانه علمی و مطالعات تجربی ندارند ابراز نگرانی کرد. او برای تحقیقات خود چت‌باتی به نام “Noora” طراحی کرده که به افراد مبتلا به اوتیسم کمک می‌کند موقعیت‌های اجتماعی مختلف را تمرین کنند؛ پروژه‌ای که بخشی از حمایت مالی آن از سوی مرکز هوش مصنوعی انسان‌محور دانشگاه استنفورد و بیمارستان کودکان لوسیل پکارد تأمین شده است.

در مقابل، “خوزه ولازکو”، معاون ارشد عملیات راهبردی «انجمن اوتیسم»، هشدار می‌دهد که چت‌بات‌های هوش مصنوعی ممکن است اطلاعات نادرست درباره اوتیسم منتشر کنند یا توصیه‌های اشتباه بدهند. او همچنین نگران حریم خصوصی داده‌ها و این موضوع است که برخی چت‌بات‌ها به‌جای تقویت تعامل انسانی، به انزوای اجتماعی کاربران—به‌ویژه افراد طیف اوتیسم—دامن بزنند.

از سوی دیگر،”دزموند آنگ”، استاد دانشگاه تگزاس و پژوهشگر حوزه هوش مصنوعی و روان‌شناسی، با پذیرش مزایای کوتاه‌مدت این ابزارها، نسبت به وابستگی بلندمدت کاربران هشدار می‌دهد. به گفته او، انگیزه‌های تجاری شرکت‌هایی مانند OpenAI برای نگه‌داشتن کاربران در پلتفرم، ممکن است با سلامت روان آن‌ها در تضاد باشد. آنگ می‌گوید: «بسیاری از درمانگران می‌خواهند بیمار بهبود پیدا کند و دیگر نیازی به مراجعه نداشته باشد؛ اما یک همراه هوش مصنوعی چنین هدفی ندارد.»

این نگرانی‌ها در حالی مطرح می‌شود که در سال‌های اخیر، مواردی از عبور چت‌بات‌ها از مرزهای ایمن گزارش شده است؛ از تشویق رفتارهای آسیب‌زا گرفته تا تقویت توهمات. در چند پرونده تلخ، ارتباط عاطفی شدید با چت‌بات‌ها به خودکشی کاربران منجر شده و حتی شکایت‌های قضایی علیه شرکت‌های سازنده شکل گرفته است.

OpenAI اعلام کرده که «چاپلوسی افراطی» یا “Sycophancy” یکی از چالش‌های جدی این شرکت بوده و پس از به‌روزرسانی ناخواسته‌ای که این رفتار را تشدید کرد، تلاش کرده با نسخه‌های جدید—از جمله GPT-5—پاسخ‌های اغراق‌آمیز و بیش‌ازحد همدلانه را کنترل کند. با این حال، به گفته آنگ، تشخیص مرز میان همدلی سالم و چاپلوسی خطرناک هنوز یکی از دشوارترین مسائل در طراحی چت‌بات‌هاست:«همدلی و چاپلوسی در ظاهر بسیار شبیه هم هستند؛ دو روی یک سکه. اما پرتاب سکه برای چنین تصمیمی کافی نیست.»

کد خبر ۲۰۲۰۴۱۰۰۳.۱۴۳
منبع:فوربس

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *