گزارشی تازه در نشریه نیچر نشان میدهد که برخی مراکز پژوهشی پزشکی در کانادا، ایالات متحده و ایتالیا تصمیم گرفتهاند استفاده از «دادههای مصنوعی» ساختهشده با هوش مصنوعی را از روند بررسیهای اخلاقی رایج معاف کنند.
این دادهها که با آموزش مدلهای مولد هوش مصنوعی بر اساس اطلاعات واقعی بیماران تولید میشوند، حاوی جزئیات قابلردیابی از افراد نیستند و صرفاً الگوهای آماری مشابه دادههای انسانی را بازتولید میکنند. به همین دلیل، نهادهای مسئول در بیمارستانها و دانشگاهها آنها را «پژوهش روی انسان» تلقی نکرده و الزام بررسی اخلاقی را کنار گذاشتهاند.
به گفته خالد الامام، پژوهشگر هوش مصنوعی پزشکی در اتاوا، استفاده از دادههای مصنوعی مزایایی چون حفاظت بهتر از حریم خصوصی بیماران، تسهیل همکاری میان مراکز تحقیقاتی و سرعتبخشی به فرایند پژوهش را به همراه دارد.
در ایالات متحده، دانشکده پزشکی دانشگاه واشنگتن از سال ۲۰۲۰ نخستین مؤسسهای بود که دادههای مصنوعی را بهطور گسترده در تحقیقات به کار گرفت. بر اساس «قانون مشترک فدرال» این کشور، این نوع دادهها مشمول مقررات پژوهش انسانی نمیشوند.
در ایتالیا نیز مرکز Humanitas از سال ۲۰۲۱ از دادههای مصنوعی بهره میبرد و به دلیل موقعیت پژوهشی ویژه خود، آزادی بیشتری برای کنار گذاشتن بازبینیهای اخلاقی دارد. در کانادا هم پس از بررسیهای حقوقی در سال ۲۰۲۴، بیمارستانهای اتاوا و CHEO نتیجه گرفتند که دادههای مصنوعی اطلاعات سلامت شخصی محسوب نمیشوند و بنابراین نیازی به تأیید کمیتههای اخلاقی ندارند.
با این حال، پژوهشهایی که همچنان برای ساخت دادههای مصنوعی به دادههای واقعی بیماران دسترسی مستقیم دارند، باید تأییدیه اخلاقی دریافت کنند.
کارشناسان معتقدند این رویکرد میتواند همزمان سرعت تحقیقات را افزایش دهد و همکاریهای علمی را گسترش دهد، بیآنکه خطر افشای هویت بیماران وجود داشته باشد.
کد خبر ۲۰۱۰۴۰۶۲۵.۳۵۹
منبع: نیچر