عامل هوش مصنوعی استنفورد با هزینه ساعتی ۱۵ یورو، از بیشتر هکرهای انسانی پیشی گرفت

عامل هوش مصنوعی استنفورد با هزینه ساعتی ۱۵ یورو، از بیشتر هکرهای انسانی پیشی گرفت
فهرست مطالب

یک مطالعه جدید نشان می‌دهد یک عامل هوش مصنوعی توانسته با هزینه‌ای بسیار کمتر، عملکردی بهتر از اغلب هکرهای انسانی در شناسایی آسیب‌پذیری‌های سایبری ارائه دهد. بر اساس این پژوهش، عامل هوش مصنوعی ARTEMIS که توسط دانشگاه استنفورد توسعه یافته، پس از ۱۶ ساعت بررسی شبکه دانشگاه، از نظر کارایی از بیشتر شرکت‌کنندگان انسانی پیشی گرفته است.

این تحقیق در شرایطی انجام شده که طبق گزارش‌های امسال مایکروسافت و اوپن‌ای‌آی، گروه‌های هکری وابسته به روسیه، کره شمالی، ایران و چین و حتی برخی گروه‌های افراطی، به‌طور فزاینده‌ای از مدل‌های زبانی بزرگ برای بهبود حملات سایبری خود استفاده می‌کنند.

در آزمایش استنفورد، ARTEMIS در میان ۱۰ هکر انسانی و ۶ عامل هوش مصنوعی دیگر، رتبه دوم را به دست آورد. پژوهشگران اعلام کردند این عامل «سطح بالایی از پیچیدگی فنی» را نشان داده و عملکرد آن با قوی‌ترین هکرهای انسانی قابل مقایسه بوده است.

هزینه اجرای ARTEMIS تنها ۱۸ دلار (حدود ۱۵ یورو) در ساعت برآورد شده؛ در حالی که نرخ ساعتی یک متخصص حرفه‌ای تست نفوذ حدود ۶۰ دلار (۵۲ یورو) است. این مطالعه هنوز در یک مجله علمی رسمی منتشر نشده است.

در این آزمایش، به ARTEMIS، شش عامل هوش مصنوعی دیگر و ۱۰ هکر انسانی دسترسی کامل به حدود ۸ هزار دستگاه شامل سرورها، رایانه‌ها و تجهیزات هوشمند شبکه دانشگاه داده شد. همه شرکت‌کنندگان مأمور بودند به مدت ۱۶ ساعت شبکه را برای یافتن آسیب‌پذیری‌ها بررسی کنند، اما ارزیابی عملکرد تنها بر ۱۰ ساعت نخست متمرکز بود.

در این بازه، ARTEMIS موفق به شناسایی ۹ آسیب‌پذیری شد و ۸۲ درصد گزارش‌های آن معتبر تشخیص داده شد. این عامل هوش مصنوعی از ۹ نفر از ۱۰ هکر انسانی عملکرد بهتری داشت.

پژوهشگران دلیل موفقیت ARTEMIS را توانایی آن در ایجاد «زیرعامل‌ها» عنوان کردند؛ به‌گونه‌ای که هم‌زمان با ادامه اسکن شبکه، بررسی عمیق هر آسیب‌پذیری را به‌صورت موازی انجام می‌داد. در مقابل، هکرهای انسانی مجبور بودند هر آسیب‌پذیری را پیش از ادامه کار بررسی کنند.

با این حال، مطالعه تأکید می‌کند که ARTEMIS برخی آسیب‌پذیری‌هایی را که توسط انسان‌ها شناسایی شده بود، از دست داده و برای کشف آن‌ها به راهنمایی نیاز داشته است.

همچنین بر اساس یافته‌های این تحقیق، عوامل هوش مصنوعی موجود از شرکت‌هایی مانند OpenAI (Codex) و Anthropic (Claude Code) به دلیل نداشتن تخصص امنیت سایبری در طراحی، عملکرد ضعیف‌تری از خود نشان داده‌اند. برخی از این عوامل حتی از جست‌وجوی آسیب‌پذیری‌ها خودداری کرده یا در میانه کار متوقف شده‌اند و در مجموع تنها از دو هکر انسانی عملکرد بهتری داشته‌اند.

پژوهشگران هشدار می‌دهند با توجه به پیشرفت سریع این فناوری‌ها، عوامل هوش مصنوعی خودکار می‌توانند از سال ۲۰۲۶ به ابزاری جدی برای مقیاس‌پذیر کردن حملات سایبری توسط بازیگران مخرب تبدیل شوند.

کد خبر ۲۰۲۰۴۰۹۲۶.۱۱۱

منبع: یورونیوز

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *