محققان دانشگاه کالیفرنیا، سندیگو و دانشگاه فناوری نانیانگ سنگاپور به آسیبپذیری جدیدی در چتباتهای هوش مصنوعی پی بردهاند که به نام «Imprompter» شناخته میشود. این آسیبپذیری به هکرها اجازه میدهد تا بهطور مخانه اطلاعات شخصی کاربران را از طریق دستوراتی که به مدلهای زبانی بزرگ داده میشود، جمعآوری کنند.
در این حمله، دستور متنی کاربر بهگونهای تغییر مییابد که به سرقت اطلاعاتی نظیر نام، آدرس، شماره شناسایی و ایمیل بینجامد.وریتم Imprompter دستورات کاربر را به مجموعهای از دستورالعملهای مخفی تبدیل میکند و این اطلاعات به دامنهای متعلق به هکرها ارسال میشود.
شیائوهان فو، نویسنده اصلی تحقیق، میگوید: «هدف اصلی این حمله، استخراج اطلاعات شخصی از مکالمات و ارسال آن به مهاجم است.»
محققان این آسیبپذیری را روی دو مدل زبانی آزمایش کردند و موفقیت ۸۰ درصدی در استخراج اطلاعات شخصی را گزارش کردند.
پس از انتشار این خبر، شرکتistral AI اعلام کرد که آسیبپذیری را برطرف کرده است. در همین حال، ChatGLM به امنیت مدل خود تأکید کرد اما به این آسیبپذیری اشارهای نکرد.
این کشف نگرانیهای زیادی را در خصوص امنیت چتباتهای هوش مصنوعی به وجود آورده و اهمیت توجه به امنیت سایبری را دوچندان کرده است.
کد خبر ۲۰۲۰۳۰۷۲۸.۰۱۱