ابزارهای هوش مصنوعی می‌توانند در تولید کدهای مخرب استفاده شوند

ابزارهای هوش مصنوعی می‌توانند در تولید کدهای مخرب استفاده شوند
فهرست مطالب

گروهی از پژوهشگران دانشگاه شفیلد در بررسی‌های خود روی ۶ ابزار هوش مصنوعی، به این نتیجه رسیدند که هکرها می‌توانند با بهره‌گیری از این فناوری‌ها به سیستم‌های کامپیوتری در سراسر جهان حمله کنند.
در این بررسی ابزارهای هوش مصنوعی جدید به نام‌های ChatGPT، BAIDU-UNIT، AI۲SQL، AIHELPERBOT، Text۲SQL  و ToolSKE مورد بررسی قرار گرفتند و به گفته محققان، هکرها و خرابکاران سایبری از این ابزارها برای تولید دستورات SQL برای هدف قرار دادن سیستم‌ها استفاده خواهند کرد.
زوتان پنگ، از محققان ارشد این گروه تحقیقاتی می‌گوید: بسیاری از شرکت‌ها از این نوع تهدیدات آگاه نیستند و به دلیل پیچیدگی‌های این ابزارهای هوش مصنوعی، بستری برای سوءاستفاده‌هایی ایجاد می‌شود که افراد از آن بی‌خبرند.
هم‌اکنون ابزار ChatGPT به یکی از محبوب‌ترین ابزارهای هوش مصنوعی بدل شده و میلیون‌ها نفر در سراسر جهان از آن استفاده می‌کنند. محققان می‌گویند که در بررسی‌ها مشخص شد که می‌توان این چت‌بات را فریب داد تا کدهای مخربی را برای آسیب رساندن به سرویس‌ها و سیستم‌های مختلف تولید کند.
این گروه تحقیقاتی، تست‌های آسیب‌پذیری را روی سیستم‌های Text-to-SQL انجام دادند که غالبا برای تولید رابط‌های کاربری زبان طبیعی برای دیتابیس‌ها مورد استفاده قرار می‌گیرد. در واقع، Text-to-SQL روشی است که می‌تواند به صورت خودکار، یک سوال انسانی را به یک عبارت SQL برگرداند. در بیانیه این تیم آمده است که می‌توان این فناوری‌های هوش مصنوعی را برای تولید کدهای مخرب فریب داد و از آنها برای انجام حملات سایبری استفاده کرد. این تیم توانست از طریق حملات Denial-of-Service، کارهایی چون سرقت اطلاعات شخصی، دستکاری در دیتابیس‌ها و از بین بردن سرویس‌ها را انجام دهند. همچنین محققان دریافتند با ابزارهای هوش مصنوعی می‌توان به‌طور مخفیانه یک کد مخرب مانند اسب تروجان را حین آموزش در مدل‌های Text-to-SQL قرار داد

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اشتراک گذاری خبر:
برچسب‌ها: