سیاست‌های تازه Anthropic برای مقابله با خطرات هوش مصنوعی

سیاست‌های تازه Anthropic برای مقابله با خطرات هوش مصنوعی
فهرست مطالب

استارتاپ Anthropic، سازنده چت‌بات هوش مصنوعی «Claude»، قوانین استفاده از این ابزار را به‌روزرسانی کرده تا پاسخ‌گوی نگرانی‌های روزافزون درباره امنیت باشد.

در نسخه جدید سیاست‌ها، استفاده از Claude برای توسعه سلاح‌های بیولوژیک، شیمیایی، رادیولوژیک و هسته‌ای (CBRN) و همچنین مواد منفجره پرقدرت به‌طور مشخص ممنوع شده است. پیش‌تر Anthropic تنها به ممنوعیت کلی طراحی یا توزیع سلاح‌ها و مواد خطرناک اشاره کرده بود.

همچنین بخش تازه‌ای با عنوان «آسیب نرساندن به سیستم‌های رایانه‌ای یا شبکه‌ای» افزوده شده که شامل ممنوعیت استفاده از Claude برای کشف یا سوءاستفاده از آسیب‌پذیری‌ها، ساخت بدافزار و حملات سایبری است. این تغییرات پس از معرفی سطح ایمنی AI Safety Level 3 و مدل جدید Claude Opus 4 اعمال شده‌اند.

در مقابل، Anthropic رویکرد خود به محتوای سیاسی را کمی نرم‌تر کرده است؛ از این پس فقط مواردی که می‌توانند روندهای دموکراتیک را مختل یا فریبکارانه عمل کنند ممنوع خواهند بود، نه همه محتواهای سیاسی.

این اصلاحات نشان می‌دهد که Anthropic تلاش دارد میان افزایش قدرت مدل‌های هوش مصنوعی و کاهش ریسک‌های امنیتی و اجتماعی تعادل برقرار کند.

کد خبر ۲۰۲۰۴۰۵۲۷.۵۷۹

منبع: ورج

2 دیدگاه در “سیاست‌های تازه Anthropic برای مقابله با خطرات هوش مصنوعی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *