یک چت بات هوش مصنوعی میتواند چنان چکیدههای مقاله تحقیقاتی جعلی قانعکنندهای بنویسد که دانشمندان اغلب قادر به شناسایی آنها نیستند.
به گزارش گروه علم و پیشرفت خبرگزاری فارس به نقل از اسلش دات، چت بات ChatGPT، یک متن واقع بینانه و هوشمند در پاسخ به درخواست های کاربر ایجاد می کند. ChatGPT سیستمی مبتنی بر شبکههای عصبی است که یاد میگیرند با هضم مقادیر عظیمی از متنهای تولید شده توسط انسان، درخواست مورد نظر را تولید کند. شرکت نرم افزاری OpenAI مستقر در سانفرانسیسکو، کالیفرنیا، این ابزار را در ۳۰ نوامبر منتشر کرد و استفاده از آن رایگان است.
اکنون، گروهی به سرپرستی کاترین گائو در دانشگاه نورث وسترن در شیکاگو، از ChatGPT برای تولید چکیدههای مقاله تحقیقاتی برای آزمایش اینکه آیا دانشمندان میتوانند آنها را تشخیص دهند یا خیر استفاده کردهاند. محققان از چت بات خواستند تا ۵۰ چکیده تحقیقاتی پزشکی را بر اساس منتخبی که در JAMA، The New England Journal of Medicine، BMJ، The Lancet و Nature Medicine منتشر شده بنویسد. سپس از طریق نرم افزار تشخیص سرقت ادبی و یک آشکارساز خروجی هوش مصنوعی، موارد تولید شده را با چکیده های اصلی مقایسه کردند و از محققان پزشکی خواستند تا چکیده های ساخته شده را شناسایی کنند.
چکیده های ایجاد شده توسط ChatGPT در جستجوگر سرقت ادبی میانگین امتیاز اصالت ۱۰۰درصد گرفتند؛ که نشان می دهد هیچ سرقت ادبی شناسایی نشده است.
آشکارساز خروجی هوش مصنوعی ۶۶درصد چکیده های تولید شده را شناسایی کرد. اما بازبینان انسانی بهتر عمل نکردند؛ آنها تنها ۶۸درصد از چکیده های تولید شده و ۸۶ درصد از چکیده های واقعی را به درستی شناسایی کردند. آنها به اشتباه ۳۲درصد از چکیده های تولید شده را واقعی و ۱۴ درصد از چکیده های واقعی را به عنوان تولید شده شناسایی کردند.
ساندرا واچر که در دانشگاه آکسفورد انگلستان در زمینه فناوری و مقررات تحصیل می کند گفت: «من بسیار نگران هستم. اگر اکنون در شرایطی هستیم که کارشناسان نتوانند تشخیص دهند که چه چیزی درست است یا غلط، واسطه ای را که برای راهنمایی در زمینه موضوعات پیچیده علمی نیاز داریم از دست خواهیم داد.»
وی افزود: اگر دانشمندان نتوانند صحت تحقیق را تعیین کنند، عواقب وحشتناکی در پی دارد. علاوه بر مشکلساز بودن برای محققان، پیامدهایی برای جامعه هم هست؛ زیرا تحقیقات علمی نقش بزرگی در جامعه ما ایفا میکند. برای مثال، می تواند به این معنی باشد که تصمیمات سیاستی مبتنی بر تحقیق نادرست هستند.
آرویند نارایانان دانشمند کامپیوتر در دانشگاه پرینستون در نیوجرسی معتقد است که دانشمندان حقیقی از ChatGPT برای تولید چکیده استفاده نخواهند کرد و سوال اینجاست که آیا این ابزار میتواند چکیدهای درست و قانعکننده ایجاد کند یا خیر.
به گزارش گروه علم و پیشرفت خبرگزاری فارس به نقل از اسلش دات، چت بات ChatGPT، یک متن واقع بینانه و هوشمند در پاسخ به درخواست های کاربر ایجاد می کند. ChatGPT سیستمی مبتنی بر شبکههای عصبی است که یاد میگیرند با هضم مقادیر عظیمی از متنهای تولید شده توسط انسان، درخواست مورد نظر را تولید کند. شرکت نرم افزاری OpenAI مستقر در سانفرانسیسکو، کالیفرنیا، این ابزار را در ۳۰ نوامبر منتشر کرد و استفاده از آن رایگان است.
اکنون، گروهی به سرپرستی کاترین گائو در دانشگاه نورث وسترن در شیکاگو، از ChatGPT برای تولید چکیدههای مقاله تحقیقاتی برای آزمایش اینکه آیا دانشمندان میتوانند آنها را تشخیص دهند یا خیر استفاده کردهاند. محققان از چت بات خواستند تا ۵۰ چکیده تحقیقاتی پزشکی را بر اساس منتخبی که در JAMA، The New England Journal of Medicine، BMJ، The Lancet و Nature Medicine منتشر شده بنویسد. سپس از طریق نرم افزار تشخیص سرقت ادبی و یک آشکارساز خروجی هوش مصنوعی، موارد تولید شده را با چکیده های اصلی مقایسه کردند و از محققان پزشکی خواستند تا چکیده های ساخته شده را شناسایی کنند.
چکیده های ایجاد شده توسط ChatGPT در جستجوگر سرقت ادبی میانگین امتیاز اصالت ۱۰۰درصد گرفتند؛ که نشان می دهد هیچ سرقت ادبی شناسایی نشده است.
آشکارساز خروجی هوش مصنوعی ۶۶درصد چکیده های تولید شده را شناسایی کرد. اما بازبینان انسانی بهتر عمل نکردند؛ آنها تنها ۶۸درصد از چکیده های تولید شده و ۸۶ درصد از چکیده های واقعی را به درستی شناسایی کردند. آنها به اشتباه ۳۲درصد از چکیده های تولید شده را واقعی و ۱۴ درصد از چکیده های واقعی را به عنوان تولید شده شناسایی کردند.
ساندرا واچر که در دانشگاه آکسفورد انگلستان در زمینه فناوری و مقررات تحصیل می کند گفت: «من بسیار نگران هستم. اگر اکنون در شرایطی هستیم که کارشناسان نتوانند تشخیص دهند که چه چیزی درست است یا غلط، واسطه ای را که برای راهنمایی در زمینه موضوعات پیچیده علمی نیاز داریم از دست خواهیم داد.»
وی افزود: اگر دانشمندان نتوانند صحت تحقیق را تعیین کنند، عواقب وحشتناکی در پی دارد. علاوه بر مشکلساز بودن برای محققان، پیامدهایی برای جامعه هم هست؛ زیرا تحقیقات علمی نقش بزرگی در جامعه ما ایفا میکند. برای مثال، می تواند به این معنی باشد که تصمیمات سیاستی مبتنی بر تحقیق نادرست هستند.
آرویند نارایانان دانشمند کامپیوتر در دانشگاه پرینستون در نیوجرسی معتقد است که دانشمندان حقیقی از ChatGPT برای تولید چکیده استفاده نخواهند کرد و سوال اینجاست که آیا این ابزار میتواند چکیدهای درست و قانعکننده ایجاد کند یا خیر.
کد خبر ۲۱۲۰۱۱۰۲۶.۴۳۳