استارتاپ Anthropic، سازنده چتبات هوش مصنوعی «Claude»، قوانین استفاده از این ابزار را بهروزرسانی کرده تا پاسخگوی نگرانیهای روزافزون درباره امنیت باشد.
در نسخه جدید سیاستها، استفاده از Claude برای توسعه سلاحهای بیولوژیک، شیمیایی، رادیولوژیک و هستهای (CBRN) و همچنین مواد منفجره پرقدرت بهطور مشخص ممنوع شده است. پیشتر Anthropic تنها به ممنوعیت کلی طراحی یا توزیع سلاحها و مواد خطرناک اشاره کرده بود.
همچنین بخش تازهای با عنوان «آسیب نرساندن به سیستمهای رایانهای یا شبکهای» افزوده شده که شامل ممنوعیت استفاده از Claude برای کشف یا سوءاستفاده از آسیبپذیریها، ساخت بدافزار و حملات سایبری است. این تغییرات پس از معرفی سطح ایمنی AI Safety Level 3 و مدل جدید Claude Opus 4 اعمال شدهاند.
در مقابل، Anthropic رویکرد خود به محتوای سیاسی را کمی نرمتر کرده است؛ از این پس فقط مواردی که میتوانند روندهای دموکراتیک را مختل یا فریبکارانه عمل کنند ممنوع خواهند بود، نه همه محتواهای سیاسی.
این اصلاحات نشان میدهد که Anthropic تلاش دارد میان افزایش قدرت مدلهای هوش مصنوعی و کاهش ریسکهای امنیتی و اجتماعی تعادل برقرار کند.
کد خبر ۲۰۲۰۴۰۵۲۷.۵۷۹
منبع: ورج
2 دیدگاه در “سیاستهای تازه Anthropic برای مقابله با خطرات هوش مصنوعی”
I appreciate your unique perspective on this.
This topic is usually confusing, but you made it simple to understand.