دانشمندان دانشگاه کمبریج از ChatGPT خواستند تا یک مسئله ریاضی با قدمت بیش از ۲۴۰۰ سال را حل کند و پاسخ آنها را شگفتزده کرد. مسئله مشهور «دو برابر کردن مساحت مربع» که فیلسوف یونانی افلاطون درباره آن نوشته بود، این سؤال فلسفی را مطرح میکند که آیا دانش ریاضی ذاتی است یا از تجربه و آموزش حاصل میشود.
چالش برای محققان این بود که چون ChatGPT عمدتاً با متنها آموزش دیده و نه تصاویر، احتمال نداشت پاسخ صحیح این مسئله در دادههای آموزشی آن وجود داشته باشد. با این حال، مدل هوش مصنوعی توانست پاسخ خود را با استدلال ارائه دهد و حتی هنگام مواجهه با مسئله مشابه مستطیل، خطاهایی شبیه دانشآموز سقراط مرتکب شد. این رفتار نشان میدهد که مدل مانند یک یادگیرنده واقعی، ایدهها و فرضیههای خود را شکل میدهد و بر اساس آنها پاسخ میدهد، حتی اگر خطاهایی هم داشته باشد.
دانشمندان این روند را مشابه مفهوم «منطقه رشد نزدیک» (ZPD) در آموزش میدانند، جایی که بین آنچه میدانیم و آنچه میتوانیم بیاموزیم فاصلهای وجود دارد و با هدایت مناسب میتوان آن را پر کرد. این مطالعه نشان میدهد که ChatGPT ممکن است به طور خودجوش از چارچوبی مشابه استفاده کند و مسائل نوظهور را حل کند، حتی اگر در دادههای آموزشی قبلی وجود نداشته باشند.
محققان هشدار میدهند که نباید این نتایج را بهعنوان اثبات «تفکر انسانی» در هوش مصنوعی برداشت کرد، اما رفتار مدل یادگیرندهگونه آن را برجسته میکند. آنها تأکید میکنند که دانشآموزان و پژوهشگران باید مهارت ارزیابی و تحلیل پاسخهای تولید شده توسط AI را یاد بگیرند و بهطور کورکورانه به آنها اعتماد نکنند.
این پژوهش همچنین فرصتهای گستردهای برای آینده ایجاد میکند؛ از آزمایش مدلهای جدید روی مجموعه گستردهتری از مسائل ریاضی گرفته تا ترکیب ChatGPT با سیستمهای هندسه پویا یا اثباتکنندههای قضایا، تا محیطهای دیجیتال غنیتری ایجاد شود که امکان اکتشاف شهودی و یادگیری تعاملی، مشابه کلاس درس، را فراهم کند.
کد خبر ۲۱۲۰۴۰۷۰۷.۵۰۹
منبع: لایوساینس