استفاده از هوش‌مصنوعی برای تشخیص تقلب‌های علمی در ایرانداک

استفاده از هوش‌مصنوعی برای تشخیص تقلب‌های علمی در ایرانداک
فهرست مطالب
رییس پژوهشگاه علوم و فناوری اطلاعات ایران اقدامات این پژوهشگاه برای استفاده از هوش مصنوعی برای تشخیص سوءرفتارهای علمی را تشریح کرد.
دکتر محمد حسن‌زاده در گفت‌وگو با ایسنا، در مورد استفاده از هوش مصنوعی برای تشخیص تقلب‌های علمی و پژوهشی، گفت: استفاده از هوش مصنوعی ابعاد مختلفی را در بر می‌گیرد. هوش مصنوعی به مثابه یک پیشرفت فناورانه می‌تواند در جهت مثبت و سازنده و همچنین منفی و غیرسازنده مورد استفاده قرار گیرد. امروزه هوش مصنوعی امکان خلق آثار با استفاده از فابریکیت کردن یا جعل داده‌های موجود در فضای اینترنت را فراهم کرده است. این به این معناست که حتی خود شخص ممکن است در فرآیند خلق اثر مشارکت کمتری داشته باشد.
وی در مورد راهکار مواجهه با این مشکل، توضیح داد: برای مواجهه با این موضوع دو بُعد مهم پیش روی ماست. اولاً، از هوش مصنوعی برای شناسایی سوء استفاده‌های علمی استفاده کنیم. مساله دوم پیش روی ایرانداک حرکت به سوی شناسایی آثاری است که از طریق هوش مصنوعی خلق می‌شوند.
رییس پژوهشگاه علوم و فناوری اطلاعات ایران در مورد استفاده از هوش مصنوعی برای شناسایی سوء استفاده‌های علمی، گفت: ایرانداک همگام با پیشرفت‌های جهانی، در سال ۱۴۰۱ با رونمایی از نسخه جدید سامانه خود با به‌کارگیری قابلیت‌های هوش مصنوعی تغییرات غیر معمول رایج در متون از منظر ساختاری و محتوایی را شناسایی می‌کند. بنابراین با کاربست قابلیت‌های هوشمندی، امکان بسیاری از سوء استفاده‌ها در آثار علمی که در ایرانداک همانندجویی می‌شوند، از بین رفته است.
وی درباره نحوه شناسایی آثاری که با هوش مصنوعی خلق می‌شوند، توضیح داد: در دنیا، ابزارهایی برای شناسایی این‌چنین مدارکی در حال شکل‌گیری است. در ایرانداک نیز با شکل‌دهی هسته‌های فکری و فناورانه حرکت‌های خوبی برای همگامی و بهره‌برداری مناسب از فناوری هوش مصنوعی در این زمینه آغاز شده است.
این متخصص علم‌سنجی تاکید کرد: هر چند پیشگیری و مقابله کامل با تقلب در تهیه آثار علمی با حضور همه عوامل فنی، فرهنگی، آموزشی، نظارتی و غیره حاصل می‌شود، اما وجود هرکدام از این مؤلفه‌ها به صورت جداگانه نیز به کاهش سوء استفاده‌های احتمالی کمک می‌کند.
کد خبر ۱۰۲۰۲۰۵۰۲.۴۲۸

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اشتراک گذاری خبر:
برچسب‌ها: