هوش مصنوعی قادر به تقلید شخصیت افراد و پیش‌بینی انتخاب‌های آن‌ها است

هوش مصنوعی قادر به تقلید شخصیت افراد و پیش‌بینی انتخاب‌های آن‌ها است
فهرست مطالب

محققان دانشگاه استنفورد و بخش دیپ‌مایند گوگل در یک پژوهش جدید نشان داده‌اند که مدل‌های هوش مصنوعی قادرند طی تنها دو ساعت از شخصیت افراد تقلید کرده و انتخاب‌های آنها را با دقت بالایی پیش‌بینی کنند. این تحقیق که بر روی هزار نفر از گروه‌های مختلف سنی، جنسیتی، نژادی، سطح سواد و حتی گرایشات سیاسی انجام شده است، نشان می‌دهد که هوش مصنوعی می‌تواند با دریافت اطلاعات اولیه از فرد، از جمله خاطرات، افکار و نظرات او درباره موضوعات مختلف، شخصیت او را شبیه‌سازی کرده و به‌طور میانگین ۸۵ درصد از انتخاب‌های او را به درستی پیش‌بینی کند.

در این پژوهش، افراد با هوش مصنوعی از طریق یک مصاحبه دو ساعته گفتگو کرده‌اند و در طول این مدت، اطلاعات متنوعی از جمله ترجیحات شخصی، ارزش‌ها، و دیدگاه‌ها درباره مسائل مختلف به هوش مصنوعی داده‌اند. بر اساس این داده‌ها، مدل هوش مصنوعی توانسته به‌طور دقیق رفتار و تصمیمات افراد را شبیه‌سازی کند.

این مدل‌های هوش مصنوعی که به عنوان «هوش مصنوعی مقلد» شناخته می‌شوند، در مقابل مدل‌های متداول «هوش مصنوعی مولد» قرار دارند. در حالی که هدف از مدل‌های مولد تولید محتوای جدید است، مدل‌های مقلد بیشتر برای شبیه‌سازی شخصیت افراد و پیش‌بینی رفتار آنها طراحی شده‌اند. پژوهشگران به‌ویژه به این نکته اشاره دارند که استفاده از چنین مدل‌هایی می‌تواند برای انجام مطالعات اجتماعی و پژوهش‌هایی که استفاده از افراد حقیقی در آنها دشوار، غیر اخلاقی یا هزینه‌بر است، بسیار مفید باشد.

در این تحقیق، برای سنجش دقت مدل‌ها، پس از شبیه‌سازی شخصیت افراد، پرسش‌ها و نظرسنجی‌هایی انجام شد تا هماهنگی میان شخصیت حقیقی و شبیه‌سازی‌شده افراد بررسی شود. نتایج نشان داد که این مدل‌ها توانسته‌اند تا ۸۵ درصد از انتخاب‌های افراد را به درستی پیش‌بینی کنند، که این دقت بالای پیش‌بینی برای کاربردهای گسترده در آینده بسیار چشمگیر است.

البته این پیشرفت در زمینه هوش مصنوعی نگرانی‌هایی را نیز به همراه دارد. به‌ویژه اگر مدل‌های مقلد بدون رضایت شخصی از داده‌های افراد ساخته شوند، این امکان وجود دارد که از آنها برای ساخت محتوای جعلی یا دیپ‌فیک استفاده شود. چنین ابزارهایی می‌توانند برای تولید اخبار و اطلاعات غلط یا تفرقه‌انگیز به کار گرفته شوند و مشکلات جدی را در زمینه امنیت و حفظ حریم شخصی افراد ایجاد کنند.

با این حال، پژوهشگران در مورد استفاده فعلی از این مدل‌ها نسبتاً نگران نیستند و تأکید دارند که تست‌های مورد استفاده در این تحقیق ساده و متداول بوده‌اند. بنابراین، تا زمانی که این تکنولوژی به‌درستی مدیریت شود، نگرانی‌های جدی وجود ندارد. با این حال، آنها پیشنهاد می‌کنند که برای جلوگیری از سوءاستفاده‌های احتمالی، نیاز به وضع قوانین و مقررات جدید برای استفاده اخلاقی از چنین فناوری‌هایی احساس می‌شود.

کد خبر ۲۱۲۰۳۰۹۰۴.۵۶۰

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *