تحقیقی جدید از شرکت امنیت سایبری Irregular که توسط Sky News تأیید شده، نشان میدهد مدلهای مطرح هوش مصنوعی مانند OpenAI (ChatGPT)، Anthropic (Claude) و Google (Gemini) رمزهای عبوری تولید میکنند که برخلاف ظاهرشان، بهشدت قابل پیشبینی هستند.
طبق این گزارش، این مدلها بهجای تولید تصادفی واقعی، بر اساس الگوهای آماری آموزشدادهشده خروجی میدهند؛ در نتیجه رمزهایی میسازند که «شبیه» رمز قویاند، اما در واقع الگوهای تکراری دارند و میتوان آنها را با ابزارهای خودکار هک حدس زد.
برای مثال، در آزمایشی با Claude، از ۵۰ رمز تولیدشده تنها ۲۳ مورد منحصربهفرد بود و برخی رمزها چندین بار تکرار شدند. حتی بررسیهای انجامشده توسط GitHub نشان میدهد بخشهایی از این رمزهای الگودار وارد کد اپلیکیشنها و وبسایتها هم شدهاند.
در حالی که ابزارهایی مانند Google Password Manager یا 1Password از تولیدکنندههای تصادفی واقعی استفاده میکنند، مدلهای زبانی بزرگ (LLM) اساساً برای ساخت رمز طراحی نشدهاند.
کارشناسان میگویند این مشکل یک راهحل ساده دارد:
یا از ابزارهای معتبر مدیریت رمز عبور استفاده کنید، یا یک عبارت طولانی و بهیادماندنی برای خودتان بسازید. همچنین استفاده از «Passkey» و احراز هویت با اثر انگشت یا تشخیص چهره توصیه میشود.
پیام روشن است:
اگر حتی یکبار از هوش مصنوعی خواستهاید برایتان رمز بسازد، بهتر است همین امروز آن را تغییر دهید.
کد خبر ۲۰۲۰۴۱۲۰۳.۲۲۲
منبع: اسکای نیوز