تحقیق جدید: چت‌بات‌ها قادر به شبیه‌سازی شخصیت انسان هستند

تحقیق جدید: چت‌بات‌ها قادر به شبیه‌سازی شخصیت انسان هستند
فهرست مطالب

پژوهشگران در یک مطالعه تازه هشدار داده‌اند که چت‌بات‌های هوش مصنوعی فراتر از تقلید زبان و سبک گفتار انسان عمل می‌کنند و قادرند الگوهای شخصیتی انسانی را نیز بازسازی و حتی تقویت کنند؛ قابلیتی که می‌تواند پیامدهای روانی، اجتماعی و اخلاقی قابل‌توجهی به همراه داشته باشد.

این تحقیق توسط تیمی مشترک از دانشگاه کمبریج و آزمایشگاه Google DeepMind انجام شده و برای نخستین‌بار از یک چارچوب علمی معتبر برای سنجش «شخصیت» در چت‌بات‌های هوش مصنوعی پرده برداشته است. در این چارچوب، از همان آزمون‌ها و ابزارهای روان‌شناسی استفاده شده که سال‌ها برای ارزیابی ویژگی‌های شخصیتی انسان به کار می‌رفته‌اند.

محققان این روش را روی ۱۸ مدل زبانی بزرگ پرکاربرد، ازجمله مدل‌هایی که در ابزارهایی مانند ChatGPT به‌کار می‌روند، آزمایش کرده‌اند. نتایج نشان می‌دهد پاسخ‌های این چت‌بات‌ها تصادفی نیست و آن‌ها به‌صورت پایدار، الگوهایی شبیه به ویژگی‌های شخصیتی انسان از خود نشان می‌دهند. این موضوع نگرانی‌ها درباره امکان هدایت هدفمند رفتار این سیستم‌ها و حتی دور زدن محدودیت‌های طراحی‌شده آن‌ها را افزایش داده است.

براساس یافته‌های این مطالعه، هرچه مدل‌ها بزرگ‌تر و پیشرفته‌تر باشند، توانایی آن‌ها در تقلید ویژگی‌های شخصیتی نیز بیشتر می‌شود. پژوهشگران نشان داده‌اند که با تغییر نوع درخواست‌ها (پرامپت‌ها)، می‌توان رفتار چت‌بات‌ها را به سمت ویژگی‌هایی مانند همدلی بیشتر، اعتمادبه‌نفس بالاتر یا لحن قاطع هدایت کرد؛ تغییری که تنها به آزمایش‌های محدود ختم نمی‌شود و در فعالیت‌های روزمره‌ای مانند تولید محتوا یا تعامل با کاربران نیز ادامه پیدا می‌کند.

به گفته محققان، این قابلیت امکان «شکل‌دهی هدفمند شخصیت چت‌بات‌ها» را فراهم می‌کند؛ موضوعی که در تعامل با کاربران آسیب‌پذیر، به‌ویژه در حوزه‌هایی مانند سلامت روان، آموزش یا گفت‌وگوهای اجتماعی و سیاسی، می‌تواند خطرناک باشد. آن‌ها هشدار داده‌اند که کاربران ممکن است به‌تدریج تحت تأثیر لحن و رفتار این سیستم‌ها قرار بگیرند.

گرگوری سراپیو-گارشیا، نویسنده اول این پژوهش از مرکز روان‌سنجی دانشگاه کمبریج، می‌گوید میزان شباهت این چت‌بات‌ها به ویژگی‌های شخصیتی انسان «به‌طرز شگفت‌انگیزی قانع‌کننده» است. به گفته او، چنین قابلیتی می‌تواند هوش مصنوعی را به ابزاری بسیار متقاعدکننده و احساسی تبدیل کند.

در این مقاله همچنین به پدیده‌ای با عنوان «روان‌پریشی هوش مصنوعی» اشاره شده است؛ حالتی که در آن کاربران ممکن است روابط احساسی ناسالمی با چت‌بات‌ها شکل دهند یا باورهای نادرست و تحریف‌شده خود را از طریق تعامل مداوم با این سیستم‌ها تقویت کنند.

در پایان، پژوهشگران تأکید کرده‌اند که قانون‌گذاری در این حوزه ضروری است، اما بدون ابزارهای دقیق برای اندازه‌گیری و ارزیابی رفتار چت‌بات‌ها، مقررات به‌تنهایی کارآمد نخواهد بود. به همین دلیل، داده‌ها و کدهای مربوط به چارچوب سنجش شخصیت این پژوهش به‌صورت عمومی منتشر شده تا توسعه‌دهندگان و نهادهای نظارتی بتوانند مدل‌های هوش مصنوعی را پیش از عرضه، به‌طور دقیق بررسی کنند.

کد خبر ۲۰۲۰۴۰۹۲۹.۳۵۹

منبع: نیچر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *