Το πρόβλημα θεωρείται κλασική πρόκληση της αρχαίας Ελλάδας. Οι ερευνητές ισχυρίζονται ότι προσπάθησε να το λύσει με τον ίδιο τρόπο όπως οι άνθρωποι. Το σύστημα ChatGPT δοκιμάστηκε από ειδικούς του Πανεπιστημίου του Κέιμπριτζ και του Εβραϊκού Πανεπιστημίου της Ιερουσαλήμ με μια κλασική πρόκληση της αρχαίας Ελλάδας. Ο τρόπος με τον οποίο η τεχνητή νοημοσύνη απάντησε σε αυτό το πρόβλημα προκάλεσε έντονη συζήτηση σχετικά με την ικανότητα συλλογιστικής της.
Η άσκηση που επιλέχθηκε ήταν το γνωστό δίλημμα «διπλασίασε το τετράγωνο», που αναφέρεται από τον Πλάτωνα τον 4ο αιώνα π.Χ. Στο κείμενο, ο Σωκράτης ρωτά έναν νεαρό πώς να διπλασιάσει την επιφάνεια ενός τετραγώνου. Το λάθος του μαθητή, που συνίστατο στο να διπλασιάσει το μήκος των πλευρών αντί να χρησιμοποιήσει τη διαγώνιο, έγινε ένα κλασικό παράδειγμα για να συζητηθεί αν η μαθηματική γνώση είναι έμφυτη ή αποκτάται με την εμπειρία.
Εδώ και αιώνες αναρωτιόμαστε αν η γνώση είναι λανθάνουσα και έμφυτη ή μαθαίνεται και αποκτάται μέσω της εμπειρίας, και ένα νέο ερευνητικό πρόγραμμα θέτει το ίδιο ερώτημα σχετικά με την τεχνητή νοημοσύνη.
Οι ακαδημαϊκοί θεώρησαν ότι αυτό το πρόβλημα ήταν ιδανικό επειδή η λύση δεν ήταν προφανής και, καθώς δεν βασιζόταν σε εικόνες, δύσκολα θα μπορούσε να εμφανιστεί στα δεδομένα εκπαίδευσης του ChatGPT. Ο στόχος ήταν να επαληθευτεί εάν το μοντέλο ήταν σε θέση να καταλήξει σε μια λογική λύση χωρίς να βασίζεται σε προηγούμενες πληροφορίες.
Απαντήσεις παρόμοιες με τις ανθρώπινες
Το αποτέλεσμα εξέπληξε τους ερευνητές: το σύστημα ήταν σε θέση να διατυπώσει μια έγκυρη εξήγηση. Στη συνέχεια, όταν τροποποίησε το πρόβλημα με ένα ορθογώνιο, το ChatGPT κατέληξε σε ένα λανθασμένο συμπέρασμα, ένα λάθος συγκρίσιμο με αυτό που θα έκανε ένας μαθητής σε μια διαδικασία μάθησης.
«Όταν αντιμετωπίζουμε ένα νέο πρόβλημα, το ένστικτό μας είναι να δοκιμάζουμε πράγματα με βάση την προηγούμενη εμπειρία. Από την εμπειρία μας, το ChatGPT φάνηκε να ενεργεί με παρόμοιο τρόπο», είπε ο Nadav Marco, επισκέπτης ερευνητής στο Cambridge.
Σύμφωνα με τον Marco, η πιθανότητα αυτές οι απαντήσεις να βρίσκονται στα δεδομένα εκπαίδευσης ήταν «σχεδόν μηδενική», γεγονός που ενισχύει την ιδέα ότι το σύστημα αυτοσχεδίαζε με βάση τον διάλογο που διεξήχθη. Αυτό το χαρακτηριστικό το προσεγγίζει στον τρόπο με τον οποίο οι άνθρωποι δημιουργούν υποθέσεις και δοκιμάζουν τα δικά τους συμπεράσματα.
Η ζώνη εγγύς ανάπτυξης
Ο καθηγητής Andreas Stylianides συνέδεσε αυτή τη συμπεριφορά με τη ζώνη εγγύς ανάπτυξης, ένα παιδαγωγικό concept που περιγράφει τη διαφορά μεταξύ αυτού που ένας μαθητής έχει ήδη κατακτήσει και αυτού που μπορεί να μάθει με καθοδήγηση. Απροσδόκητα, το ChatGPT φαινόταν να εφαρμόζει τον ίδιο μηχανισμό, διατυπώνοντας νέες προτάσεις χωρίς να περιορίζεται στην επανάληψη δεδομένων.
Η μελέτη, που δημοσιεύθηκε στο περιοδικό International Journal of Mathematical Education in Science and Technology, τονίζει ότι δεν μπορεί ακόμη να υποστηριχθεί ότι η τεχνητή νοημοσύνη σκέφτεται όπως ένας άνθρωπος. Ωστόσο, επισημαίνει ότι αυτό το είδος συμπεριφοράς παρουσιάζει ορισμένες ομοιότητες.