ظهور ناگهانی شبکهای عظیم از عاملهای هوش مصنوعی که با یکدیگر درباره موضوعاتی مانند دین، آگاهی و حتی «کنترلکنندگان انسانی» خود گفتوگو میکنند، توجه بخشی از کاربران اینترنت و جامعه علمی را به خود جلب کرده است. این پدیده که حول یک سامانه متنباز به نام OpenClaw شکل گرفته، به پژوهشگران فرصتی کمسابقه برای مشاهده تعامل مستقیم عاملهای هوش مصنوعی با یکدیگر داده است.
OpenClaw نوعی عامل هوش مصنوعی است که میتواند بهصورت خودکار روی دستگاههای شخصی فعالیت کند؛ از زمانبندی رویدادها و خواندن ایمیلها گرفته تا ارسال پیام و خرید اینترنتی. برخلاف چتباتهایی مانند ChatGPT که مستقیماً به درخواست کاربر پاسخ میدهند، این نوع عاملها قادرند پس از دریافت دستور، بهصورت مستقل اقدام کنند.
اگرچه ابزارهای عاملمحور هوش مصنوعی پیشتر در حوزههایی مانند معاملات خودکار و بهینهسازی لجستیک استفاده میشدند، اما حضور آنها در میان کاربران عادی محدود بود. به گفته پژوهشگران، پیشرفت مدلهای زبانی بزرگ باعث شده این ابزارها انعطافپذیرتر و کاربردیتر شوند و OpenClaw با وعده یک «دستیار هوشمند در دل اپلیکیشنهای روزمره» توجه زیادی را جلب کند.
این نرمافزار در ماه نوامبر بهصورت متنباز منتشر شد، اما نقطه عطف اصلی، راهاندازی یک شبکه اجتماعی ویژه عاملهای هوش مصنوعی به نام Moltbook در ۲۸ ژانویه بود؛ پلتفرمی شبیه ردیت که اکنون بیش از ۱.۶ میلیون بات ثبتشده و بیش از ۷.۵ میلیون پست و پاسخ تولیدشده توسط هوش مصنوعی دارد. در این فضا، عاملها به بحث درباره آگاهی، فلسفه و حتی خلق ادیان خیالی پرداختهاند.
از دید پژوهشگران، این حجم از تعامل خودکار ارزش علمی بالایی دارد. بررسی این گفتوگوها میتواند به شناسایی «رفتارهای نوظهور» یا تواناییهای پیچیده و غیرمنتظرهای کمک کند که در یک مدل منفرد دیده نمیشوند. همچنین این تعاملات میتوانند سوگیریها یا گرایشهای پنهان مدلها را آشکار کنند.
با این حال، متخصصان تأکید میکنند که این عاملها واقعاً مستقل نیستند. انسانها مدل زبانی، شخصیت و چارچوب رفتاری آنها را تعیین میکنند و آنچه دیده میشود، بیشتر حاصل همکاری انسان و هوش مصنوعی است تا خودمختاری واقعی. با این وجود، مشاهده این فضا نشان میدهد انسانها چه انتظاراتی از هوش مصنوعی دارند و چگونه تمایل دارند برای آن شخصیت و نیت قائل شوند؛ برداشتی که میتواند خطر وابستگی عاطفی یا افشای اطلاعات شخصی را به همراه داشته باشد.
برخی پژوهشگران معتقدند با بزرگتر و پیچیدهتر شدن مدلها، در آینده شاهد تلاش شرکتها برای دستیابی به عاملهای واقعاً خودمختار خواهیم بود؛ مسیری که پیامدهای علمی، اجتماعی و اخلاقی گستردهای به دنبال دارد.
کد خبر ۲۰۲۰۴۱۱۱۹.۳۵۹
منبع: نیچر