گروهی از پژوهشگران دانشگاه شفیلد در بررسیهای خود روی ۶ ابزار هوش مصنوعی، به این نتیجه رسیدند که هکرها میتوانند با بهرهگیری از این فناوریها به سیستمهای کامپیوتری در سراسر جهان حمله کنند.
در این بررسی ابزارهای هوش مصنوعی جدید به نامهای ChatGPT، BAIDU-UNIT، AI۲SQL، AIHELPERBOT، Text۲SQL و ToolSKE مورد بررسی قرار گرفتند و به گفته محققان، هکرها و خرابکاران سایبری از این ابزارها برای تولید دستورات SQL برای هدف قرار دادن سیستمها استفاده خواهند کرد.
زوتان پنگ، از محققان ارشد این گروه تحقیقاتی میگوید: بسیاری از شرکتها از این نوع تهدیدات آگاه نیستند و به دلیل پیچیدگیهای این ابزارهای هوش مصنوعی، بستری برای سوءاستفادههایی ایجاد میشود که افراد از آن بیخبرند.
هماکنون ابزار ChatGPT به یکی از محبوبترین ابزارهای هوش مصنوعی بدل شده و میلیونها نفر در سراسر جهان از آن استفاده میکنند. محققان میگویند که در بررسیها مشخص شد که میتوان این چتبات را فریب داد تا کدهای مخربی را برای آسیب رساندن به سرویسها و سیستمهای مختلف تولید کند.
این گروه تحقیقاتی، تستهای آسیبپذیری را روی سیستمهای Text-to-SQL انجام دادند که غالبا برای تولید رابطهای کاربری زبان طبیعی برای دیتابیسها مورد استفاده قرار میگیرد. در واقع، Text-to-SQL روشی است که میتواند به صورت خودکار، یک سوال انسانی را به یک عبارت SQL برگرداند. در بیانیه این تیم آمده است که میتوان این فناوریهای هوش مصنوعی را برای تولید کدهای مخرب فریب داد و از آنها برای انجام حملات سایبری استفاده کرد. این تیم توانست از طریق حملات Denial-of-Service، کارهایی چون سرقت اطلاعات شخصی، دستکاری در دیتابیسها و از بین بردن سرویسها را انجام دهند. همچنین محققان دریافتند با ابزارهای هوش مصنوعی میتوان بهطور مخفیانه یک کد مخرب مانند اسب تروجان را حین آموزش در مدلهای Text-to-SQL قرار داد