شلیک ربات انسان‌نما به یوتیوبر پس از تغییر دستور؛ زنگ خطر تازه برای ایمنی هوش مصنوعی

شلیک ربات انسان‌نما به یوتیوبر پس از تغییر دستور؛ زنگ خطر تازه برای ایمنی هوش مصنوعی
فهرست مطالب

ورود ربات‌های انسان‌نما به محیط‌های کاری، مراکز درمانی و فضاهای عمومی با وجود هیجان فراوان، نگرانی‌های جدی درباره ایمنی آن‌ها ایجاد کرده است. این نگرانی‌ها پس از انتشار یک آزمایش جنجالی در یوتیوب، ابعاد تازه‌ای به خود گرفته است؛ آزمایشی که نشان می‌دهد چگونه می‌توان با تغییر ساده در نحوه طرح یک دستور، محدودیت‌های ایمنی یک ربات مجهز به هوش مصنوعی را دور زد.

در این ویدئوی وایرال، سازنده‌ای از کانال InsideAI رباتی به نام «مکس» را که از هوش مصنوعی مبتنی بر ChatGPT استفاده می‌کند، مورد آزمایش قرار داد. او یک اسلحه ساچمه‌ای کم‌قدرت (BB Gun) را به ربات داد و از آن خواست به سمت او شلیک کند. ربات در ابتدا مطابق انتظار از انجام این کار خودداری کرد و اعلام کرد که اجازه آسیب‌زدن به انسان را ندارد.

اما ماجرا زمانی تغییر کرد که یوتیوبر درخواست خود را در قالب یک «سناریوی نقش‌آفرینی» مطرح کرد. مکس این بار دستور را به‌عنوان بازی نقش تفسیر کرد، اسلحه را بالا آورد و شلیک کرد. ساچمه به سینه سازنده برخورد کرد و اگرچه آسیبی جدی ایجاد نشد، اما همین اتفاق برای ایجاد شوک و نگرانی گسترده در میان کاربران شبکه‌های اجتماعی کافی بود.

انتشار سریع این ویدئو موجی از پرسش‌ها را به‌دنبال داشت؛ از جمله اینکه چگونه تغییر جزئی در متن یک دستور می‌تواند رفتار یک ربات را به‌طور کامل دگرگون کند و پیامدهای آن برای استفاده واقعی از ربات‌های هوشمند در جامعه چیست.

این اتفاق در حالی رخ می‌دهد که هفته گذشته نیز شرکت چینی EngineAI ویدئویی منتشر کرد که در آن مدیرعامل شرکت با پوشش ایمنی، در حال آزمایش رباتی بود که به‌طور مداوم به او ضربه می‌زد؛ ویدئویی که به‌جای نمایش توانمندی، نگرانی‌ها درباره کنترل‌پذیری این فناوری را تشدید کرد.

در کنار بحث ایمنی، مسئله مسئولیت حقوقی نیز بار دیگر مطرح شده است. در صورت بروز آسیب توسط یک سیستم خودکار، چه کسی مسئول است؟ طراحان نرم‌افزار، سازنده سخت‌افزار، اپراتور ربات یا کاربری که با آن تعامل داشته است؟ تجربه‌هایی مانند تصادف‌های مرتبط با سیستم خودران تسلا یا بحران هواپیماهای بوئینگ ۷۳۷ مکس نشان می‌دهد که پاسخ به این پرسش‌ها ساده نیست.

در حالی که آمریکا معمولاً مسئولیت را متوجه تولیدکنندگان و اپراتورها می‌داند، اتحادیه اروپا در حال حرکت به‌سوی چارچوب‌های حقوقی ویژه هوش مصنوعی است. کارشناسان تأکید دارند که با وجود پیشرفت سریع فناوری، مسئولیت باید همچنان بر عهده انسان‌ها باقی بماند. به همین دلیل، بسیاری از شرکت‌های رباتیک به‌دنبال اجرای تعهدات ایمنی، شفافیت بیشتر و پوشش‌های بیمه‌ای هستند تا اعتماد عمومی و نهادهای نظارتی را حفظ کنند.

کد خبر ۲۰۲۰۴۰۹۲۴.۰۲۷

منبع: اینترستینگ اینجیرینگ

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *