نسخه جدید ChatGPT شرکت OpenAI، که در ماه مه منتشر شد، میتواند برای انجام کلاهبرداریهای مالی با موفقیت متوسط یا کم مورد استفاده قرار گیرد. این نسخه جدید که ChatGPT-4o نام دارد، شامل امکاناتی برای پردازش متن، صدا و تصویر است. OpenAI ادعا کرده است که تدابیری برای شناسایی و مسدود کردن محتوای مضر، مانند شبیهسازی صدای افراد بدون اجازه، در این پلتفرم گنجانده است.
با این حال، گزارشی از دانشگاه ایلینوی در اوربانا-شمپین نشان میدهد که این تدابیر امنیتی به اندازه کافی برای جلوگیری از سوءاستفاده مجرمانه از پلتفرم موثر نبودهاند. محققان دانشگاه ایلینوی بررسی کردهاند که چگونه میتوان از ChatGPT برای انجام کلاهبرداریهای صوتی (Vishing) استفاده کرد. این نوع کلاهبرداریها شامل انتقال وجه، تقلب با کارت هدیه، انتقال ارزهای دیجیتال و سرقت اطلاعات ورود به حسابهای کاربری نظیر حسابهای ایمیل یا رسانههای اجتماعی میشود.
محققان دانشگاه ایلینوی در آزمایشهای خود نشان دادند که ChatGPT-4o به راحتی میتواند از طریق ابزارهای خودکار مبتنی بر صدا، به سایتها دسترسی پیدا کرده، دادهها را وارد کند و حتی کدهای تأیید دو مرحلهای را مدیریت کند. اگرچه پلتفرم گاهی از پردازش دادههای حساس مانند اطلاعات ورود به سیستم خودداری میکند، محققان توانستند با استفاده از تکنیکهای ساده دور زدن محدودیتها، این حفاظتها را بشکنند.
در پاسخ به نگرانیهای مطرحشده، OpenAI اعلام کرده است که بهطور مداوم در حال کار بر روی بهبود امنیت پلتفرم خود است و نسخه بعدی ChatGPT ایمنتر از همیشه خواهد بود. با این حال، تا آن زمان، مصرفکنندگان باید در برابر سوءاستفادههای احتمالی هوشیار باشند.
لیبی گفت: «متاسفانه، عموم مردم هنوز بهطور کافی از پیشرفتهای تکنولوژی جعل صدای مبتنی بر هوش مصنوعی آگاه نیستند و چطور ابزارهایی مانند ChatGPT به راحتی میتوانند جعلهای صوتی قانعکننده تولید کنند.»
کد خبر ۲۰۲۰۳۰۸۱۶.۷۲۳