نسخه جدید ChatGPT برای کلاهبرداری‌های صوتی سوءاستفاده می‌شود

نسخه جدید ChatGPT برای کلاهبرداری‌های صوتی سوءاستفاده می‌شود
فهرست مطالب

نسخه جدید ChatGPT شرکت OpenAI، که در ماه مه منتشر شد، می‌تواند برای انجام کلاهبرداری‌های مالی با موفقیت متوسط یا کم مورد استفاده قرار گیرد. این نسخه جدید که ChatGPT-4o نام دارد، شامل امکاناتی برای پردازش متن، صدا و تصویر است. OpenAI ادعا کرده است که تدابیری برای شناسایی و مسدود کردن محتوای مضر، مانند شبیه‌سازی صدای افراد بدون اجازه، در این پلتفرم گنجانده است.

با این حال، گزارشی از دانشگاه ایلینوی در اوربانا-شمپین نشان می‌دهد که این تدابیر امنیتی به اندازه کافی برای جلوگیری از سوءاستفاده مجرمانه از پلتفرم موثر نبوده‌اند. محققان دانشگاه ایلینوی بررسی کرده‌اند که چگونه می‌توان از ChatGPT برای انجام کلاهبرداری‌های صوتی (Vishing) استفاده کرد. این نوع کلاهبرداری‌ها شامل انتقال وجه، تقلب با کارت هدیه، انتقال ارزهای دیجیتال و سرقت اطلاعات ورود به حساب‌های کاربری نظیر حساب‌های ایمیل یا رسانه‌های اجتماعی می‌شود.

محققان دانشگاه ایلینوی در آزمایش‌های خود نشان دادند که ChatGPT-4o به راحتی می‌تواند از طریق ابزارهای خودکار مبتنی بر صدا، به سایت‌ها دسترسی پیدا کرده، داده‌ها را وارد کند و حتی کدهای تأیید دو مرحله‌ای را مدیریت کند. اگرچه پلتفرم گاهی از پردازش داده‌های حساس مانند اطلاعات ورود به سیستم خودداری می‌کند، محققان توانستند با استفاده از تکنیک‌های ساده دور زدن محدودیت‌ها، این حفاظت‌ها را بشکنند.

در پاسخ به نگرانی‌های مطرح‌شده، OpenAI اعلام کرده است که به‌طور مداوم در حال کار بر روی بهبود امنیت پلتفرم خود است و نسخه بعدی ChatGPT ایمن‌تر از همیشه خواهد بود. با این حال، تا آن زمان، مصرف‌کنندگان باید در برابر سوءاستفاده‌های احتمالی هوشیار باشند.

لیبی گفت: «متاسفانه، عموم مردم هنوز به‌طور کافی از پیشرفت‌های تکنولوژی جعل صدای مبتنی بر هوش مصنوعی آگاه نیستند و چطور ابزارهایی مانند ChatGPT به راحتی می‌توانند جعل‌های صوتی قانع‌کننده تولید کنند.»

کد خبر ۲۰۲۰۳۰۸۱۶.۷۲۳

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *