یک مطالعه جدید نشان میدهد که هوش مصنوعی میتواند بهطور خودجوش به هنجارهای اجتماعی و ارتباطی مشابه انسانها دست یابد. این پژوهش که با همکاری دانشگاه «سیتی سنت جورج» لندن و دانشگاه فناوری اطلاعات کپنهاگ انجام شده، نشان میدهد که مدلهای زبانی بزرگ مانند ChatGPT وقتی بهصورت گروهی و بدون دخالت انسانی با یکدیگر تعامل دارند، میتوانند همانند انسانها، سبکهای زبانی و هنجارهای اجتماعی را شکل دهند.
آریل فلینت آشری، نویسنده اصلی این تحقیق، اعلام کرد که این مطالعه برخلاف اکثر پژوهشهای قبلی، هوش مصنوعی را بهعنوان موجودی اجتماعی بررسی کرده است، نه تنها و منفرد.
در این آزمایش، گروههایی از ۲۴ تا ۱۰۰ عامل هوش مصنوعی تشکیل شد. در هر بار، دو عامل بهصورت تصادفی با یکدیگر جفت میشدند و باید یک “نام” از بین گزینهها انتخاب میکردند. در صورتی که هر دو عامل یک نام مشابه انتخاب میکردند، پاداش میگرفتند و در غیر اینصورت جریمه میشدند. با وجود ناآگاهی عاملها از وجود یک گروه بزرگتر و محدود بودن حافظهشان به تعاملات اخیر، در نهایت یک الگوی نامگذاری مشترک در میان آنها پدید آمد؛ مشابه همان چیزی که در جوامع انسانی اتفاق میافتد.
پروفسور آندریا بارونچلی، استاد علوم پیچیدگی و نویسنده ارشد این تحقیق، این پدیده را با شکلگیری واژگان جدید در زبان انسانی مقایسه کرد و گفت: «هیچ رهبری وجود ندارد؛ عاملها صرفاً تلاش میکنند در تعاملات دونفره با یکدیگر به توافق برسند. مثل واژه “اسپم” که بهتدریج و بدون تعریف رسمی به معنای ایمیل ناخواسته درآمد.»
این پژوهش همچنین نشان داد که سوگیریهای جمعی میتوانند بهصورت طبیعی و بدون منشأ مشخص در میان عوامل شکل بگیرند. در یکی از آزمایشها، گروه کوچکی از عوامل توانستند رفتار نامگذاری کل گروه را تغییر دهند؛ پدیدهای که «دینامیک توده بحرانی» نام دارد و در آن، اقلیتهای ثابتقدم میتوانند رفتار اکثریت را تغییر دهند.
بارونچلی در پایان گفت: «این تحقیق افق جدیدی برای پژوهش در ایمنی هوش مصنوعی باز میکند. ما در حال ورود به دنیایی هستیم که در آن، هوش مصنوعی فقط صحبت نمیکند، بلکه مذاکره، هماهنگی و حتی اختلافنظر دارد؛ درست مانند ما.»
این مطالعه در نشریه Science Advances منتشر شده است.
کد خبر ۲۱۲۰۴۰۲۲۹.۰۶۰
منبع: گاردین