یک استاد دانشگاه در آلمان از تجربهای تلخ با «چتجیپیتی» پرده برداشت؛ تجربهای که به گفته او به حذف کامل دو سال فعالیت علمی و آموزشیاش انجامیده است.
«مارسل بوچر»، استاد علوم گیاهی دانشگاه کلن، در گفتوگو با مجله “Nature” اعلام کرد پس از غیرفعال کردن گزینه مربوط به «رضایت استفاده از دادهها» در چتجیپیتی، تمامی گفتوگوهای کاری او بهطور ناگهانی ناپدید شدهاند؛ گفتوگوهایی که شامل پیشنویس مقالات، درخواستهای گرنت، ویرایشهای نشریه، محتوای سخنرانیها و حتی آزمونهای دانشگاهی بوده است.
به گفته بوچر، او این تنظیم را صرفاً برای بررسی تأثیر آن بر دسترسی به قابلیتهای چتجیپیتی تغییر داده، اما بلافاصله با یک صفحه خالی مواجه شده است؛ بدون هشدار، بدون پیام تأیید و بدون امکان بازیابی. او تأکید میکند که هرگز تصور نمیکرد یک تغییر ساده در تنظیمات بتواند چنین پیامدی داشته باشد.
انتشار این روایت واکنشهای گستردهای را در شبکههای اجتماعی به دنبال داشت. برخی کاربران با انتقاد تند، بوچر را به اتکای بیش از حد به هوش مصنوعی متهم کردند و حتی خواستار برخورد دانشگاه با او شدند. در مقابل، گروهی دیگر این اتفاق را هشداری جدی برای جامعه دانشگاهی دانستند.
«رولند گرومز»، هماهنگکننده آموزشی دانشگاه هایدلبرگ، با لحنی همدلانه نوشت که این ماجرا نمونهای از یک گردش کار معیوب است و یادآور میشود که حتی پژوهشگران باتجربه نیز ممکن است در دام اعتماد بیش از حد به ابزارهای دیجیتال بیفتند.
بوچر خود اذعان دارد که هرگز دقت چتجیپیتی را همسطح حقیقت علمی ندانسته و از خطر «توهم» در پاسخهای آن آگاه بوده است. با این حال، او به ثبات ظاهری محیط کاری این ابزار اعتماد کرده و از نسخه Plus بهعنوان دستیار روزانهاش استفاده میکرده است.
این اتفاق در حالی رخ میدهد که استفاده از هوش مصنوعی مولد در پژوهشهای علمی همچنان محل مناقشه است؛ از افزایش مقالات کمکیفیت تولیدشده با AI گرفته تا ظهور نشریات جعلی و چرخهای که در آن، محتوای تولیدشده توسط هوش مصنوعی، دوباره توسط مدلهای مشابه ارزیابی میشود.
بوچر با انتقاد از اوپنایآی، این شرکت را متهم کرده که بدون تضمین سازوکارهای حفاظتی کافی، اشتراک پولی ارائه میدهد. در مقابل، اوپنایآی در پاسخ به “Nature” اعلام کرده که چتهای حذفشده قابل بازیابی نیستند و پیش از حذف دائمی، پیام هشدار به کاربر نمایش داده میشود. این شرکت همچنین به کاربران توصیه کرده است برای استفادههای حرفهای، حتماً نسخههای پشتیبان شخصی تهیه کنند.
ماجرای این استاد دانشگاه، بار دیگر ضرورت احتیاط در استفاده از ابزارهای هوش مصنوعی و وابسته نکردن کامل فعالیتهای حیاتی به آنها را یادآوری میکند.
کد خبر ۲۱۲۰۴۱۱۰۷.۰۸۹
منبع: فیوچریسم