شرکت مادر فیسبوک، متا، نمایش عمومی مدل هوش مصنوعی Galactica خود را برای «وظایف علمی» پس از اینکه دانشمندان نشان دادند با فیلتر کردن کل دستههای تحقیقاتی اطلاعات نادرست و گمراهکننده تولید میکند، تعطیل کرد.
در اوایل هفته گذشته، این شرکت Galactica را به عنوان یک مدل هوش مصنوعی مبتنی بر زبان توصیف کرد که “می تواند دانش علمی را ذخیره، ترکیب و استدلال کند” – خلاصه مقالات علمی، حل معادلات و انجام تعدادی از وظایف علمی مفید دیگر. اما دانشمندان و دانشگاهیان به سرعت دریافتند که هوش مصنوعی حجم حیرتآوری از اطلاعات نادرست تولید میکند، از جمله استناد به نویسندگان مقالات علمی که وجود ندارند.
در چندین مثال، هوش مصنوعی مقالاتی تولید می کند که معتبر و باورپذیر به نظر می رسند، اما توسط تحقیقات علمی واقعی پشتیبانی نمی شوند. در برخی موارد، نقلقولها حتی شامل نام نویسندگان واقعی میشود، اما به مخازن خیالی Github و مقالات علمی اشاره میکنند.
این شبکه اجتماعی اعلام کرده است: “هیچ تضمینی برای خروجی واقعی یا قابل اعتماد مدلهای زبان، حتی مدلهای بزرگی که بر روی دادههای با کیفیت بالا مانند Galactica آموزش دیدهاند، وجود ندارد. هرگز توصیههای یک مدل زبان را بدون بررسی آن دنبال نکنید.”
این شرکت همچنین توضیح داده است که این برنامه به خوبی کار نمی کند، زیرا اطلاعات کمتری در مورد یک موضوع خاص در دسترس است.
این گروه با اعلام پایان آزمایش برنامه مذکور تصریح کرده است: “از همه شما برای آزمایش مدل Galactica متشکرم. ما به خاطر بازخوردی که تاکنون از جامعه دریافت کرده ایم قدردانی می کنیم و آزمایش را فعلاً متوقف کرده ایم. مدل های ما در دسترس محققانی است که می خواهند درباره این کار و نتایج بیشتر بدانند.”
در اوایل هفته گذشته، این شرکت Galactica را به عنوان یک مدل هوش مصنوعی مبتنی بر زبان توصیف کرد که “می تواند دانش علمی را ذخیره، ترکیب و استدلال کند” – خلاصه مقالات علمی، حل معادلات و انجام تعدادی از وظایف علمی مفید دیگر. اما دانشمندان و دانشگاهیان به سرعت دریافتند که هوش مصنوعی حجم حیرتآوری از اطلاعات نادرست تولید میکند، از جمله استناد به نویسندگان مقالات علمی که وجود ندارند.
در چندین مثال، هوش مصنوعی مقالاتی تولید می کند که معتبر و باورپذیر به نظر می رسند، اما توسط تحقیقات علمی واقعی پشتیبانی نمی شوند. در برخی موارد، نقلقولها حتی شامل نام نویسندگان واقعی میشود، اما به مخازن خیالی Github و مقالات علمی اشاره میکنند.
این شبکه اجتماعی اعلام کرده است: “هیچ تضمینی برای خروجی واقعی یا قابل اعتماد مدلهای زبان، حتی مدلهای بزرگی که بر روی دادههای با کیفیت بالا مانند Galactica آموزش دیدهاند، وجود ندارد. هرگز توصیههای یک مدل زبان را بدون بررسی آن دنبال نکنید.”
این شرکت همچنین توضیح داده است که این برنامه به خوبی کار نمی کند، زیرا اطلاعات کمتری در مورد یک موضوع خاص در دسترس است.
این گروه با اعلام پایان آزمایش برنامه مذکور تصریح کرده است: “از همه شما برای آزمایش مدل Galactica متشکرم. ما به خاطر بازخوردی که تاکنون از جامعه دریافت کرده ایم قدردانی می کنیم و آزمایش را فعلاً متوقف کرده ایم. مدل های ما در دسترس محققانی است که می خواهند درباره این کار و نتایج بیشتر بدانند.”
کد خبر ۲۲۳۰۱۰۹۰۸.۵۸۳