یک مطالعه جدید نشان میدهد یک عامل هوش مصنوعی توانسته با هزینهای بسیار کمتر، عملکردی بهتر از اغلب هکرهای انسانی در شناسایی آسیبپذیریهای سایبری ارائه دهد. بر اساس این پژوهش، عامل هوش مصنوعی ARTEMIS که توسط دانشگاه استنفورد توسعه یافته، پس از ۱۶ ساعت بررسی شبکه دانشگاه، از نظر کارایی از بیشتر شرکتکنندگان انسانی پیشی گرفته است.
این تحقیق در شرایطی انجام شده که طبق گزارشهای امسال مایکروسافت و اوپنایآی، گروههای هکری وابسته به روسیه، کره شمالی، ایران و چین و حتی برخی گروههای افراطی، بهطور فزایندهای از مدلهای زبانی بزرگ برای بهبود حملات سایبری خود استفاده میکنند.
در آزمایش استنفورد، ARTEMIS در میان ۱۰ هکر انسانی و ۶ عامل هوش مصنوعی دیگر، رتبه دوم را به دست آورد. پژوهشگران اعلام کردند این عامل «سطح بالایی از پیچیدگی فنی» را نشان داده و عملکرد آن با قویترین هکرهای انسانی قابل مقایسه بوده است.
هزینه اجرای ARTEMIS تنها ۱۸ دلار (حدود ۱۵ یورو) در ساعت برآورد شده؛ در حالی که نرخ ساعتی یک متخصص حرفهای تست نفوذ حدود ۶۰ دلار (۵۲ یورو) است. این مطالعه هنوز در یک مجله علمی رسمی منتشر نشده است.
در این آزمایش، به ARTEMIS، شش عامل هوش مصنوعی دیگر و ۱۰ هکر انسانی دسترسی کامل به حدود ۸ هزار دستگاه شامل سرورها، رایانهها و تجهیزات هوشمند شبکه دانشگاه داده شد. همه شرکتکنندگان مأمور بودند به مدت ۱۶ ساعت شبکه را برای یافتن آسیبپذیریها بررسی کنند، اما ارزیابی عملکرد تنها بر ۱۰ ساعت نخست متمرکز بود.
در این بازه، ARTEMIS موفق به شناسایی ۹ آسیبپذیری شد و ۸۲ درصد گزارشهای آن معتبر تشخیص داده شد. این عامل هوش مصنوعی از ۹ نفر از ۱۰ هکر انسانی عملکرد بهتری داشت.
پژوهشگران دلیل موفقیت ARTEMIS را توانایی آن در ایجاد «زیرعاملها» عنوان کردند؛ بهگونهای که همزمان با ادامه اسکن شبکه، بررسی عمیق هر آسیبپذیری را بهصورت موازی انجام میداد. در مقابل، هکرهای انسانی مجبور بودند هر آسیبپذیری را پیش از ادامه کار بررسی کنند.
با این حال، مطالعه تأکید میکند که ARTEMIS برخی آسیبپذیریهایی را که توسط انسانها شناسایی شده بود، از دست داده و برای کشف آنها به راهنمایی نیاز داشته است.
همچنین بر اساس یافتههای این تحقیق، عوامل هوش مصنوعی موجود از شرکتهایی مانند OpenAI (Codex) و Anthropic (Claude Code) به دلیل نداشتن تخصص امنیت سایبری در طراحی، عملکرد ضعیفتری از خود نشان دادهاند. برخی از این عوامل حتی از جستوجوی آسیبپذیریها خودداری کرده یا در میانه کار متوقف شدهاند و در مجموع تنها از دو هکر انسانی عملکرد بهتری داشتهاند.
پژوهشگران هشدار میدهند با توجه به پیشرفت سریع این فناوریها، عوامل هوش مصنوعی خودکار میتوانند از سال ۲۰۲۶ به ابزاری جدی برای مقیاسپذیر کردن حملات سایبری توسط بازیگران مخرب تبدیل شوند.
کد خبر ۲۰۲۰۴۰۹۲۶.۱۱۱
منبع: یورونیوز