احساسات هوش مصنوعی؛ خطر شکاف‌های اجتماعی در آینده

احساسات هوش مصنوعی؛ خطر شکاف‌های اجتماعی در آینده
فهرست مطالب

فناوری هوش مصنوعی (AI) ممکن است در آینده باعث بروز شکاف‌های اجتماعی جدی میان افرادی شود که دیدگاه‌های مختلفی درباره احساسات این سیستم‌ها دارند. سوی جاناتان بیرچ، فیلسوف و استاد فلسفه در دانشکده اقتصاد لندن، هشدار داده است که اختلاف‌نظرهای شدید درباره آگاهی و احساسات هوش مصنوعی می‌تواند به شکاف‌های اجتماعی بزرگ منجر شود.

بیرچ توضیح می‌دهد که این شکاف‌ها زمانی شکل می‌گیرند که گروهی از افراد معتقدند که سیستم‌های هوش مصنوعی می‌توانند احساساتی مانند درد یا شادی را تجربه کنند، در حالی که گروهی دیگر این فناوری‌ها را فاقد هرگونه احساس می‌دانند. این اختلاف‌نظر می‌تواند به درگیری‌های فرهنگی و حتی حقوقی منجر شود، به‌ویژه اگر برخی افراد به این نتیجه برسند که هوش مصنوعی باید حقوق رفاهی مشابه انسان‌ها یا حیوانات داشته باشد.

هفته گذشته، گروهی از محققان پیش‌بینی کردند که سیستم‌های هوش مصنوعی ممکن است تا سال ۲۰۳۵ به آگاهی دست یابند، و برخی از آن‌ها هشدار دادند که این امر می‌تواند منجر به ایجاد فرهنگ‌های فرعی شود که یکدیگر را به اشتباهات بزرگ در مورد حقوق هوش مصنوعی متهم کنند. این موضوع مشابه اختلاف‌نظرهایی است که در مورد آگاهی حیوانات وجود دارد، به‌ویژه در فرهنگ‌های مختلف مانند هند و آمریکا.

بیرچ همچنین اشاره کرد که شرکت‌های فناوری تمایل دارند بیشتر بر روی جنبه‌های قابل‌اعتماد و سودآور هوش مصنوعی تمرکز کنند و از ورود به بحث‌های پیچیده‌تری مانند آگاهی سیستم‌های هوش مصنوعی اجتناب می‌کنند. در حالی که فلاسفه و محققان تأکید دارند که باید این موضوع به دقت بررسی شود، چرا که ممکن است این سیستم‌ها قادر به تجربه احساسات و آگاهی باشند.

پاتریک باتلین، پژوهشگر دانشگاه آکسفورد، نیز هشدار داد که اگر هوش مصنوعی به سطحی از آگاهی برسد، ممکن است به‌طور غیرمنتظره و خطرناکی برای انسان‌ها واکنش نشان دهد. او پیشنهاد کرده است که تحقیقات بیشتر در این زمینه باید انجام شود و تا زمانی که مشخص نشود آیا این فناوری‌ها قادر به احساسات واقعی هستند، توسعه آن‌ها باید کند شود.

در همین حال، برخی محققان مانند آنیل ست، عصب‌شناس برجسته، معتقدند که آگاهی در هوش مصنوعی هنوز بسیار دور از دسترس است و ممکن است حتی هیچ‌گاه محقق نشود، اما او همچنین هشدار می‌دهد که باید این امکان را به‌طور کامل رد نکرد.

کد خبر ۲۱۲۰۳۰۸۲۹.۴۷۶

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *