تحقیقات جدید نشان میدهد که ابزار تبدیل متن به گفتار هوش مصنوعی به نام «Whisper» که در بیمارستانها مورد استفاده قرار میگیرد، در تولید متنهایی که هیچگاه گفته نشدهاند، مشکلاتی جدی دارد. این ابزار که توسط OpenAI توسعه یافته، ادعا میکند دقتی نزدیک به سطح انسان دارد، اما در واقعیت به تولید متنهای جعلی، معروف به توهم (hallucinations)، تمایل دارد.
براساس نظرات متخصصان، Whisper در صنایع مختلفی برای ترجمه و تبدیل مصاحبهها به متن، تولید زیرنویس و دیگر کارها مورد استفاده قرار میگیرد. با این حال، استفاده از این ابزار در مراکز پزشکی برای ثبت مشاورههای بیماران با پزشکان، نگرانکننده است، زیرا OpenAI هشدار داده که این ابزار نباید در زمینههای پرخطر استفاده شود.
در بررسیهای انجام شده، محققان دریافتند که درصد بالایی از متنهای تولید شده توسط Whisper حاوی توهم هستند. بهعنوان مثال، یک محقق دانشگاه میشیگان در بررسیهای خود دریافت که در ۸۰ درصد از ثبتهای صوتی، توهم وجود داشته است. همچنین یک مهندس یادگیری ماشین اعلام کرد که در حدود نیمی از بیش از ۱۰۰ ساعت متنهای تولید شده توسط Whisper، توهم مشاهده کرده است.
مشکل توهم حتی در نمونههای صوتی کوتاه و باکیفیت نیز وجود دارد و این مساله میتواند به تولید دهها هزار متن نادرست منجر شود. نلسون، استاد دانشگاه و رئیس پیشین دفتر سیاستگذاری علم و فناوری کاخ سفید، هشدار داد که چنین اشتباهاتی میتوانند عواقب جدی، بهویژه در محیطهای بیمارستانی، داشته باشند.
استفاده از Whisper برای ایجاد زیرنویسهای مخصوص ناشنوایان و کمشنوایان نیز نگرانکننده است، زیرا این افراد قادر به شناسایی مطالب جعلی نیستند. از این رو، برخی از کارشناسان و حامیان این حوزه خواستار تدوین مقررات برای هوش مصنوعی شدهاند.
همچنین استفاده از Whisper در مراکز درمانی، از جمله کلینیک مانکاتو در مینهسوتا و بیمارستان کودکان لسآنجلس، افزایش یافته است. این ابزار برای تبدیل و خلاصهسازی تعاملات بیماران با پزشکان تنظیم شده است. با این حال، مقامات شرکت Nabla، که این ابزار را توسعه دادهاند، به وجود توهم در متنها اذعان کرده و در حال رفع این مشکل هستند.
مقامات این شرکت تأکید کردند که هیچ مدل هوش مصنوعی کاملاً بینقص نیست و نسخه آنها نیازمند ویرایش سریع و تأیید یادداشتهای تبدیل شده توسط پزشکان است.
کد خبر ۲۰۱۰۳۰۸۰۷.۷۱۶