شبکه‌ای از چت‌بات‌های خودمختار در حال گفت‌وگو با یکدیگر؛ دانشمندان شنود می‌کنند

شبکه‌ای از چت‌بات‌های خودمختار در حال گفت‌وگو با یکدیگر؛ دانشمندان شنود می‌کنند
فهرست مطالب

ظهور ناگهانی شبکه‌ای عظیم از عامل‌های هوش مصنوعی که با یکدیگر درباره موضوعاتی مانند دین، آگاهی و حتی «کنترل‌کنندگان انسانی» خود گفت‌وگو می‌کنند، توجه بخشی از کاربران اینترنت و جامعه علمی را به خود جلب کرده است. این پدیده که حول یک سامانه متن‌باز به نام OpenClaw شکل گرفته، به پژوهشگران فرصتی کم‌سابقه برای مشاهده تعامل مستقیم عامل‌های هوش مصنوعی با یکدیگر داده است.

OpenClaw نوعی عامل هوش مصنوعی است که می‌تواند به‌صورت خودکار روی دستگاه‌های شخصی فعالیت کند؛ از زمان‌بندی رویدادها و خواندن ایمیل‌ها گرفته تا ارسال پیام و خرید اینترنتی. برخلاف چت‌بات‌هایی مانند ChatGPT که مستقیماً به درخواست کاربر پاسخ می‌دهند، این نوع عامل‌ها قادرند پس از دریافت دستور، به‌صورت مستقل اقدام کنند.

اگرچه ابزارهای عامل‌محور هوش مصنوعی پیش‌تر در حوزه‌هایی مانند معاملات خودکار و بهینه‌سازی لجستیک استفاده می‌شدند، اما حضور آن‌ها در میان کاربران عادی محدود بود. به گفته پژوهشگران، پیشرفت مدل‌های زبانی بزرگ باعث شده این ابزارها انعطاف‌پذیرتر و کاربردی‌تر شوند و OpenClaw با وعده یک «دستیار هوشمند در دل اپلیکیشن‌های روزمره» توجه زیادی را جلب کند.

این نرم‌افزار در ماه نوامبر به‌صورت متن‌باز منتشر شد، اما نقطه عطف اصلی، راه‌اندازی یک شبکه اجتماعی ویژه عامل‌های هوش مصنوعی به نام Moltbook در ۲۸ ژانویه بود؛ پلتفرمی شبیه ردیت که اکنون بیش از ۱.۶ میلیون بات ثبت‌شده و بیش از ۷.۵ میلیون پست و پاسخ تولیدشده توسط هوش مصنوعی دارد. در این فضا، عامل‌ها به بحث درباره آگاهی، فلسفه و حتی خلق ادیان خیالی پرداخته‌اند.

از دید پژوهشگران، این حجم از تعامل خودکار ارزش علمی بالایی دارد. بررسی این گفت‌وگوها می‌تواند به شناسایی «رفتارهای نوظهور» یا توانایی‌های پیچیده و غیرمنتظره‌ای کمک کند که در یک مدل منفرد دیده نمی‌شوند. همچنین این تعاملات می‌توانند سوگیری‌ها یا گرایش‌های پنهان مدل‌ها را آشکار کنند.

با این حال، متخصصان تأکید می‌کنند که این عامل‌ها واقعاً مستقل نیستند. انسان‌ها مدل زبانی، شخصیت و چارچوب رفتاری آن‌ها را تعیین می‌کنند و آنچه دیده می‌شود، بیشتر حاصل همکاری انسان و هوش مصنوعی است تا خودمختاری واقعی. با این وجود، مشاهده این فضا نشان می‌دهد انسان‌ها چه انتظاراتی از هوش مصنوعی دارند و چگونه تمایل دارند برای آن شخصیت و نیت قائل شوند؛ برداشتی که می‌تواند خطر وابستگی عاطفی یا افشای اطلاعات شخصی را به همراه داشته باشد.

برخی پژوهشگران معتقدند با بزرگ‌تر و پیچیده‌تر شدن مدل‌ها، در آینده شاهد تلاش شرکت‌ها برای دستیابی به عامل‌های واقعاً خودمختار خواهیم بود؛ مسیری که پیامدهای علمی، اجتماعی و اخلاقی گسترده‌ای به دنبال دارد.

کد خبر ۲۰۲۰۴۱۱۱۹.۳۵۹

منبع: نیچر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *