کشف آسیب‌پذیری خطرناک در چت‌بات‌های هوش مصنوعی

کشف آسیب‌پذیری خطرناک در چت‌بات‌های هوش مصنوعی
فهرست مطالب

محققان دانشگاه کالیفرنیا، سن‌دیگو و دانشگاه فناوری نانیانگ سنگاپور به آسیب‌پذیری جدیدی در چت‌بات‌های هوش مصنوعی پی برده‌اند که به نام «Imprompter» شناخته می‌شود. این آسیب‌پذیری به هکرها اجازه می‌دهد تا به‌طور مخانه اطلاعات شخصی کاربران را از طریق دستوراتی که به مدل‌های زبانی بزرگ داده می‌شود، جمع‌آوری کنند.

در این حمله، دستور متنی کاربر به‌گونه‌ای تغییر می‌یابد که به سرقت اطلاعاتی نظیر نام، آدرس، شماره شناسایی و ایمیل بینجامد.وریتم Imprompter دستورات کاربر را به مجموعه‌ای از دستورالعمل‌های مخفی تبدیل می‌کند و این اطلاعات به دامنه‌ای متعلق به هکرها ارسال می‌شود.

شیائوهان فو، نویسنده اصلی تحقیق، می‌گوید: «هدف اصلی این حمله، استخراج اطلاعات شخصی از مکالمات و ارسال آن به مهاجم است.»

محققان این آسیب‌پذیری را روی دو مدل زبانی آزمایش کردند و موفقیت ۸۰ درصدی در استخراج اطلاعات شخصی را گزارش کردند.

پس از انتشار این خبر، شرکتistral AI اعلام کرد که آسیب‌پذیری را برطرف کرده است. در همین حال، ChatGLM به امنیت مدل خود تأکید کرد اما به این آسیب‌پذیری اشاره‌ای نکرد.

این کشف نگرانی‌های زیادی را در خصوص امنیت چت‌بات‌های هوش مصنوعی به وجود آورده و اهمیت توجه به امنیت سایبری را دوچندان کرده است.

کد خبر ۲۰۲۰۳۰۷۲۸.۰۱۱

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *