پژوهشگران در یک مطالعه تازه هشدار دادهاند که چتباتهای هوش مصنوعی فراتر از تقلید زبان و سبک گفتار انسان عمل میکنند و قادرند الگوهای شخصیتی انسانی را نیز بازسازی و حتی تقویت کنند؛ قابلیتی که میتواند پیامدهای روانی، اجتماعی و اخلاقی قابلتوجهی به همراه داشته باشد.
این تحقیق توسط تیمی مشترک از دانشگاه کمبریج و آزمایشگاه Google DeepMind انجام شده و برای نخستینبار از یک چارچوب علمی معتبر برای سنجش «شخصیت» در چتباتهای هوش مصنوعی پرده برداشته است. در این چارچوب، از همان آزمونها و ابزارهای روانشناسی استفاده شده که سالها برای ارزیابی ویژگیهای شخصیتی انسان به کار میرفتهاند.
محققان این روش را روی ۱۸ مدل زبانی بزرگ پرکاربرد، ازجمله مدلهایی که در ابزارهایی مانند ChatGPT بهکار میروند، آزمایش کردهاند. نتایج نشان میدهد پاسخهای این چتباتها تصادفی نیست و آنها بهصورت پایدار، الگوهایی شبیه به ویژگیهای شخصیتی انسان از خود نشان میدهند. این موضوع نگرانیها درباره امکان هدایت هدفمند رفتار این سیستمها و حتی دور زدن محدودیتهای طراحیشده آنها را افزایش داده است.
براساس یافتههای این مطالعه، هرچه مدلها بزرگتر و پیشرفتهتر باشند، توانایی آنها در تقلید ویژگیهای شخصیتی نیز بیشتر میشود. پژوهشگران نشان دادهاند که با تغییر نوع درخواستها (پرامپتها)، میتوان رفتار چتباتها را به سمت ویژگیهایی مانند همدلی بیشتر، اعتمادبهنفس بالاتر یا لحن قاطع هدایت کرد؛ تغییری که تنها به آزمایشهای محدود ختم نمیشود و در فعالیتهای روزمرهای مانند تولید محتوا یا تعامل با کاربران نیز ادامه پیدا میکند.
به گفته محققان، این قابلیت امکان «شکلدهی هدفمند شخصیت چتباتها» را فراهم میکند؛ موضوعی که در تعامل با کاربران آسیبپذیر، بهویژه در حوزههایی مانند سلامت روان، آموزش یا گفتوگوهای اجتماعی و سیاسی، میتواند خطرناک باشد. آنها هشدار دادهاند که کاربران ممکن است بهتدریج تحت تأثیر لحن و رفتار این سیستمها قرار بگیرند.
گرگوری سراپیو-گارشیا، نویسنده اول این پژوهش از مرکز روانسنجی دانشگاه کمبریج، میگوید میزان شباهت این چتباتها به ویژگیهای شخصیتی انسان «بهطرز شگفتانگیزی قانعکننده» است. به گفته او، چنین قابلیتی میتواند هوش مصنوعی را به ابزاری بسیار متقاعدکننده و احساسی تبدیل کند.
در این مقاله همچنین به پدیدهای با عنوان «روانپریشی هوش مصنوعی» اشاره شده است؛ حالتی که در آن کاربران ممکن است روابط احساسی ناسالمی با چتباتها شکل دهند یا باورهای نادرست و تحریفشده خود را از طریق تعامل مداوم با این سیستمها تقویت کنند.
در پایان، پژوهشگران تأکید کردهاند که قانونگذاری در این حوزه ضروری است، اما بدون ابزارهای دقیق برای اندازهگیری و ارزیابی رفتار چتباتها، مقررات بهتنهایی کارآمد نخواهد بود. به همین دلیل، دادهها و کدهای مربوط به چارچوب سنجش شخصیت این پژوهش بهصورت عمومی منتشر شده تا توسعهدهندگان و نهادهای نظارتی بتوانند مدلهای هوش مصنوعی را پیش از عرضه، بهطور دقیق بررسی کنند.
کد خبر ۲۰۲۰۴۰۹۲۹.۳۵۹
منبع: نیچر