پایان انتظار دو هزار ساله / چتجیپیتی معمای ریاضی را حل کرد
رکنا : دانشمندان از «چت جیپیتی»(ChatGPT) خواستند یک مسئله ریاضی به قدمت ۲۰۰۰ سال را حل کند و از نحوه پاسخ دادن آن شگفتزده شدند.

به گزاش رکنا، دانشمندان قرنهاست در این فکر هستند که آیا دانش، نهفته و ذاتی است یا از طریق تجربه آموخته و درک میشود. اکنون طی یک مطالعه جدید، همین سوال درباره هوش مصنوعی مطرح شده است. «افلاطون» فیلسوف یونانی در حدود سال ۳۸۵ قبل از میلاد، درباره چالش «سقراط» با یکی از شاگردانش درباره مسئله دو برابر کردن مساحت مربع نوشت. زمانی که از شاگرد خواسته شد تا مساحت مربعی را دو برابر کند، او طول هر ضلع را دو برابر کرد؛ بدون این که بداند هر ضلع مربع جدید باید برابر با قطر مربع اصلی باشد.
به نقل از لایوساینس، گروهی از دانشمندان «دانشگاه کمبریج»(Cambridge University)، این مسئله را برای «چت جیپیتی» مطرح کردند زیرا راهحل آن بدیهی نبود. دانشمندان از زمان نگارش افلاطون در ۲۴۰۰ سال پیش، از مسئله دو برابر کردن مساحت مربع برای بحث در این مورد استفاده کردهاند که آیا دانش ریاضی مورد نیاز برای حل کردن آن درون ما نهفته است یا تنها از طریق تجربه قابل دسترسی است.
از آنجا که چت جیپیتی مانند سایر «مدلهای زبانی بزرگ»(LLMs) عمدتاً بر اساس متن آموزش دیده است، دانشمندان این استدلال را داشتند که احتمال وجود راهحل مسئله، دو برابر کردن مساحت مربع در دادههای آموزشی است. این بدان معناست که اگر چت جیپیتی بدون کمک به راهحل صحیح برسد، میتوان استدلال کرد که توانایی ریاضی آموختنی است و ذاتی نیست. پاسخ این مسئله زمانی به دست آمد که گروه پژوهشی فراتر رفتند.
آنها از چتبات خواستند تا با استفاده از استدلال مشابه، مساحت یک مستطیل را دو برابر کند. چت جیپیتی پاسخ داد: چون قطر مستطیل را نمیتوان برای دو برابر کردن اندازه آن به کار برد، راهحلی در هندسه وجود ندارد.
با وجود این، «ناداو مارکو»(Nadav Marco) و «آندریاس استیلیانیدس»(Andreas Stylianides) پژوهشگران این پروژه میدانستند که راهحل هندسی وجود دارد. مارکو گفت: شانس وجود ادعای نادرست در دادههای آموزشی چت جیپیتی، به طرز چشمگیری ناچیز بود و این به این معناست که چتبات در حال بداههپردازی پاسخها بر اساس بحثهای قبلی درباره مسئله دو برابر کردن مساحت مربع بوده است. این نشانهای واضح از یادگیری تولیدشده است نه ذاتی.
وی افزود: وقتی با یک مسئله جدید روبهرو میشویم، غریزه ما اغلب این است که موارد را بر اساس تجربیات گذشته امتحان کنیم. به نظر میرسد چت جیپیتی در آزمایشات ما، عملی مشابه انجام میدهد. این سامانه مانند یک دانشآموز یا دانشمند به نظر میرسید که فرضیهها و راهحلهای خود را ابداع میکند.
ماشینها فکر میکنند
دانشمندان متوجه شدند که این مطالعه، نور تازهای را بر سوالات مربوط به نسخه استدلال و تفکر در هوش مصنوعی میاندازد. از آنجا که به نظر میرسید چت جیپیتی پاسخها را بداههپردازی میکند و حتی اشتباهاتی مانند شاگردان سقراط مرتکب میشود، میتوان گفت چت جیپیتی ممکن است از مفهوم «منطقه توسعه مجاور»(ZPD) که ما از آموزش میشناسیم استفاده کند. این مفهوم، شکاف بین آنچه میدانیم و آنچه ممکن است در نهایت با راهنمایی آموزشی مناسب بدانیم، توصیف میکند.
پژوهشگران گفتند: چت جیپیتی ممکن است به طور خودجوش از یک چارچوب مشابه استفاده کند و مسائل جدیدی را که در دادههای آموزشی نیستند، صرفاً به لطف دستورات مناسب حل کند.
پژوهشگران معتقدند که نتایج آنها در نهایت بر فرصت بهبود عملکرد هوش مصنوعی برای کاربران تأکید دارد. دانشآموزان برخلاف اثباتهایی که در کتابهای درسی معتبر یافت میشوند، نمیتوانند فرض کنند که اثباتهای چت جیپیتی معتبر هستند. درک و ارزیابی اثباتهای تولید شده توسط هوش مصنوعی به عنوان مهارتهای کلیدی در حال ظهور هستند که باید در برنامه درسی ریاضی گنجانده شوند. این یک مهارت اساسی است که پژوهشگران میخواهند دانشآموزان در زمینههای آموزشی بر آن مسلط شوند.
این گروه پژوهشی نسبت به نتایج بهدستآمده همچنان محتاط است و هشدار میدهد که نباید آنها را بیش از حد تفسیر کرد و نتیجه گرفت که مدلهای زبانی بزرگ، مسائل را مانند ما حل میکنند اما دانشمندان رفتار چت جیپیتی را شبیه به دانشآموز توصیف کردند. آنها برای مطالعات آینده در چندین حوزه، چشماندازهای بزرگی میبینند. مدلهای جدیدتر را میتوان روی مجموعهای وسیعتر از مسائل ریاضی آزمایش کرد. همچنین، پتانسیلی برای ترکیب چت جیپیتی با سامانههای هندسه پویا یا اثباتکنندههای قضیه وجود دارد که محیطهای دیجیتال غنیتری را برای پشتیبانی از کاوش شهودی ایجاد میکند.
این مطالعه در مجله International Journal of Mathematical Education in Science and Technology منتشر شده است.
ارسال نظر