محققان دانشگاه استنفورد و بخش دیپمایند گوگل در یک پژوهش جدید نشان دادهاند که مدلهای هوش مصنوعی قادرند طی تنها دو ساعت از شخصیت افراد تقلید کرده و انتخابهای آنها را با دقت بالایی پیشبینی کنند. این تحقیق که بر روی هزار نفر از گروههای مختلف سنی، جنسیتی، نژادی، سطح سواد و حتی گرایشات سیاسی انجام شده است، نشان میدهد که هوش مصنوعی میتواند با دریافت اطلاعات اولیه از فرد، از جمله خاطرات، افکار و نظرات او درباره موضوعات مختلف، شخصیت او را شبیهسازی کرده و بهطور میانگین ۸۵ درصد از انتخابهای او را به درستی پیشبینی کند.
در این پژوهش، افراد با هوش مصنوعی از طریق یک مصاحبه دو ساعته گفتگو کردهاند و در طول این مدت، اطلاعات متنوعی از جمله ترجیحات شخصی، ارزشها، و دیدگاهها درباره مسائل مختلف به هوش مصنوعی دادهاند. بر اساس این دادهها، مدل هوش مصنوعی توانسته بهطور دقیق رفتار و تصمیمات افراد را شبیهسازی کند.
این مدلهای هوش مصنوعی که به عنوان «هوش مصنوعی مقلد» شناخته میشوند، در مقابل مدلهای متداول «هوش مصنوعی مولد» قرار دارند. در حالی که هدف از مدلهای مولد تولید محتوای جدید است، مدلهای مقلد بیشتر برای شبیهسازی شخصیت افراد و پیشبینی رفتار آنها طراحی شدهاند. پژوهشگران بهویژه به این نکته اشاره دارند که استفاده از چنین مدلهایی میتواند برای انجام مطالعات اجتماعی و پژوهشهایی که استفاده از افراد حقیقی در آنها دشوار، غیر اخلاقی یا هزینهبر است، بسیار مفید باشد.
در این تحقیق، برای سنجش دقت مدلها، پس از شبیهسازی شخصیت افراد، پرسشها و نظرسنجیهایی انجام شد تا هماهنگی میان شخصیت حقیقی و شبیهسازیشده افراد بررسی شود. نتایج نشان داد که این مدلها توانستهاند تا ۸۵ درصد از انتخابهای افراد را به درستی پیشبینی کنند، که این دقت بالای پیشبینی برای کاربردهای گسترده در آینده بسیار چشمگیر است.
البته این پیشرفت در زمینه هوش مصنوعی نگرانیهایی را نیز به همراه دارد. بهویژه اگر مدلهای مقلد بدون رضایت شخصی از دادههای افراد ساخته شوند، این امکان وجود دارد که از آنها برای ساخت محتوای جعلی یا دیپفیک استفاده شود. چنین ابزارهایی میتوانند برای تولید اخبار و اطلاعات غلط یا تفرقهانگیز به کار گرفته شوند و مشکلات جدی را در زمینه امنیت و حفظ حریم شخصی افراد ایجاد کنند.
با این حال، پژوهشگران در مورد استفاده فعلی از این مدلها نسبتاً نگران نیستند و تأکید دارند که تستهای مورد استفاده در این تحقیق ساده و متداول بودهاند. بنابراین، تا زمانی که این تکنولوژی بهدرستی مدیریت شود، نگرانیهای جدی وجود ندارد. با این حال، آنها پیشنهاد میکنند که برای جلوگیری از سوءاستفادههای احتمالی، نیاز به وضع قوانین و مقررات جدید برای استفاده اخلاقی از چنین فناوریهایی احساس میشود.
کد خبر ۲۱۲۰۳۰۹۰۴.۵۶۰