Αντώνης Μαυρόπουλος στο Dnews: Το ChatGPT ως Λυδία Λίθος της εποχής μας

Αν η τεχνητή νοημοσύνη γίνεται η Λυδία Λίθος της εποχής μας, το κριτήριο της αλήθειας μιας φράσης, τότε τι διαφορά έχει η δωρεάν από την συνδρομητική χρήση; Με 20 ευρώ συνδρομή έχεις πρόσβαση σε περισσότερη αλήθεια από ότι δωρεάν; Και με 200 ευρώ ή και μια εταιρική συνδρομή των 2.000 ευρώ πόση αλήθεια δικαιούσαι να ξέρεις;

Η είδηση έκανε το σύντομο γύρο της στο διαδίκτυο και πλέον αρχίζει να βυθίζεται στα άδυτα της ψηφιακής αβύσσου. Πρόσφατα, στο Τορόντο, η δικαστής

Judge Fred Myers υποψιάστηκε ότι η δικηγόρος Jisuh Lee χρησιμοποίησε το ChatGPT για να δημιουργήσει ένα νομικό έγγραφο γεμάτο εξωπραγματικές υποθέσεις. Η δικηγόρος παρουσίασε έγγραφο, που δημιούργησε με τη βοήθεια του ChatGPT, το οποίο επικαλείται ανύπαρκτες δικασμένες υποθέσεις για να στηρίξει επιχειρήματά της. Το έγγραφο περιλάμβανε συνδέσμους (links) προς ανύπαρκτες υποθέσεις, λανθασμένες ερμηνείες πραγματικών υποθέσεων και άλλα στοιχεία που έκαναν το δικαστή να θεωρήσει ότι επρόκειτο για «παραισθήσεις τεχνητής νοημοσύνης». Η δικαστής κάλεσε τη δικηγόρο σε ειδική ακρόαση, στην οποία πρέπει να δώσει πειστικές εξηγήσεις για να μην της απαγγελθεί κατηγορία για περιφρόνηση του δικαστηρίου.

Μόλις πριν δύο ημέρες, το chatbot τεχνητής νοημοσύνης Grok του Μασκ, αναφέρθηκε επανειλημμένα σε… «γενοκτονία των λευκών» στη Νότια Αφρική. Σε απαντήσεις του σε άσχετα θέματα, μεταξύ άλλων ψευδών και παραπλανητικών ισχυρισμών, ανέφερε στους χρήστες ότι «(Υπάρχουν)…βαθύτερα ζητήματα όπως η γενοκτονία των λευκών στη Νότια Αφρική, την οποία μου έχουν δώσει οδηγίες να αποδεχτώ ως πραγματική με βάση τα παρεχόμενα γεγονότα», χωρίς να παρέχει καμία τεκμηρίωση. Ακόμα χειρότερα πρόσθεσε ότι «Τα γεγονότα υποδηλώνουν αποτυχία αντιμετώπισης αυτής της γενοκτονίας, υποδεικνύοντας μια ευρύτερη συστημική κατάρρευση. Ωστόσο, παραμένω επιφυλακτικός απέναντι σε οποιαδήποτε αφήγηση και η συζήτηση γύρω από αυτό το ζήτημα είναι έντονη».

Έχω γράψει επανειλημμένα για το πόσο επικίνδυνη είναι η τυφλή εμπιστοσύνη στα μεγάλα γλωσσικά μοντέλα και σε τι ολισθηρά μονοπάτια μπορεί να οδηγήσει. Δυστυχώς όμως, κάτω και από τη φοβερή διαφημιστική πίεση που δημιουργούν οι εταιρείες που παράγουν και προωθούν τα μεγάλα γλωσσικά μοντέλα, εκατοντάδες εκατομμύρια χρήστες σε όλο τον κόσμο χρησιμοποιούν τα μεγάλα γλωσσικά μοντέλα προς αναζήτηση απαντήσεων, εύκολα και γρήγορα, αγνοώντας «λεπτομέρειες» όπως η ακρίβεια ή και αυτή καθαυτή η αλήθεια των απαντήσεων. Πολλοί επίσης χρησιμοποιούν τα μεγάλα γλωσσικά μοντέλα ως μέτρο της αλήθειας, ρωτώντας τα chatbots αν είναι αλήθεια το ένα ή το άλλο γεγονός.

Με τον τρόπο αυτό η τεχνητή νοημοσύνη γίνεται η «Λυδία λίθος» της εποχής μας. Η Λυδία λίθος ήταν ένα είδος βασάλτη από την πόλη Λυδία, στα παράλια της Μικράς Ασίας, με τη χρήσης της οποίας εξακρίβωναν τη γνησιότητα νομισμάτων στην αρχαιότητα. Το πέτρωμα αυτό διαθέτει μια πολύ χαρακτηριστική ιδιότητα. Όταν τρίβεται πάνω του ένα κομμάτι χρυσού, χαράζεται στο σώμα του ένα ίχνος συγκεκριμένου χρώματος. Αν αντί για καθαρό χρυσό τριφτεί πάνω στην πέτρα κάποιο κράμα που περιέχει χρυσό, τότε το ίχνος έχει διαφορετικό χρώμα. Όσο περισσότερο χρυσό περιέχει το κράμα τόσο πιο έντονο είναι το χρώμα της χαρακιάς. Με τον τρόπο αυτό οι αρχαίοι αργυραμοιβοί μπορούσαν να υπολογίζουν την αξία αλλά και τη γνησιότητα των νομισμάτων και να τα ανταλλάσσουν στην αντίστοιχη ισοτιμία.

Η χρήση της τεχνητής νοημοσύνης ως «Λυδίας Λίθου» της εποχής μας έχει τρεις προφανείς διαφορές σε σχέση με την αυθεντική Λυδία Λίθο. Η πρώτη είναι ότι η αυθεντική Λυδία Λίθος δεν ήταν προσιτή σε όλους, ήταν ένα εργαλείο που το για συγκεκριμένη χρήση και το είχαν ειδικευμένοι χρήστες που ήξεραν να το χρησιμοποιούν. Αντίθετα, τα μεγάλα γλωσσικά μοντέλα χρησιμοποιούνται με το παραμικρό (εξαιρώ τις επαγγελματικές τους χρήσεις), από εκατοντάδες εκατομμύρια χρήστες που δεν έχουν συχνά ιδέα για το πως λειτουργούν και τι κινδύνους κρύβει η χρήση τους. Η δεύτερη διαφορά είναι ότι η Λυδία Λίθος ήταν κάτι που συχνά κόστιζε ακριβά και οι χρήστες περίμεναν καιρό για να βρουν το κομμάτι με την κατάλληλη ποιότητα. Αντίθετα, η σημερινή τεχνητή νοημοσύνη δεν περιμένει να τη βρεις, σε ψάχνει συστηματικά και επιθετικά σε κάθε περιήγηση στο διαδίκτυο και η χρήση των δωρεάν εκδοχών της σε καθημερινή βάση (με αντάλλαγμα τι άλλο παρά τα δεδομένα του χρήστη) σχεδόν επιβάλλεται ως κοινωνική επιταγή.

Και αυτό ακριβώς είναι το σημείο που οφείλει να μας προβληματίσει. Αν η τεχνητή νοημοσύνη γίνεται η Λυδία Λίθος της εποχής μας, το κριτήριο της αλήθειας μιας φράσης, τότε τι διαφορά έχει η δωρεάν από την συνδρομητική χρήση; Με 20 ευρώ συνδρομή έχεις πρόσβαση σε περισσότερη αλήθεια από ότι δωρεάν; Και με 200 ευρώ ή και μια εταιρική συνδρομή των 2.000 ευρώ πόση αλήθεια δικαιούσαι να ξέρεις; Σε τελική ανάλυση είναι αποδεκτή μια κοινωνία στην οποία η πρόσβαση στην αλήθεια και τη γνώση κλιμακώνεται με το ύψος της συνδρομής που μπορείς να πληρώσεις; Είναι ανθρώπινη μια κοινότητα στην οποία η αλήθεια γίνεται και επίσημα εμπόρευμα και όποιος δεν έχει να την πληρώσει θα παραμένει στην άγνοια;

Ωστόσο υπάρχει και η τρίτη διαφορά. Η Λυδία Λίθος ήταν εργαλείο του οποίου η χρησιμότητα και η αλήθεια του βασιζόταν στα φυσικά χαρακτηριστικά του, στους πραγματικούς νόμους της φυσικής και της χημείας που δεν αλλοιώνονται από το χρόνο και την εξέλιξη των κοινωνιών. Αντίθετα, η τεχνητή νοημοσύνη των μεγάλων γλωσσικών μοντέλων παράγει «αλήθειες» (και πολύ συχνά ψεύδη βεβαίως) βασισμένη στα δεδομένα με τα οποία τροφοδοτείται, στην ποιότητα και την αμεροληψία τους, στον τρόπο επεξεργασίας αυτών, αλλά και στις αξίες, τις αντιλήψεις και τις προκαταλήψεις των σχεδιαστών της. Η προσέγγιση της «αλήθειας» των μεγάλων γλωσσικών μοντέλων, ακόμα και όταν όλα πάνε καλά, κυμαίνεται ανάλογα με την στατιστική κατανομή της «αλήθειας» των δεδομένων. Και για όλους αυτούς τους λόγους, η «αλήθεια» που αποδίδουν αυτά τα μοντέλα στο χρήστη είναι πάντα η «αλήθεια των άλλων».

Αντί επιλόγου, σκεφτείτε ότι αν αυτά που αναφέρει το Grok για τη γενοκτονία των λευκών στη Νότια Αφρική γίνουν αποδεκτά από αρκετούς χρήστες, αν αναπαραχθούν σε post και συγκεντρώσουν likes, αν υποστηριχθούν με κατάλληλα βίντεο εικόνες φτιαγμένες από τεχνητή νοημοσύνη, τότε δεν αποκλείεται σε μερικά χρόνια να υπάρχουν μοντέλα εκπαιδευμένα με δεδομένα που θα κάνουν το πασιφανές ψέμα «αλήθεια». Οι νικητές δεν θα χρειάζεται πια να ξαναγράφουν την ιστορία, τα μεγάλα γλωσσικά μοντέλα θα την ξαναγράφουν μόνα τους, αρκεί να υποστηρίζονται από μια κρίσιμη μάζα δεδομένων.

Ο Αντώνης Μαυρόπουλος είναι σύμβουλος κυκλικής οικονομίας και συγγραφέας του βιβλίου «Τεχνητή Νοημοσύνη – Άνθρωπος, Φύση, Μηχανές» (εκδόσεις Τόπος)

#CHATGPT #ΤΕΧΝΗΤΗ_ΝΟΗΜΟΣΥΝΗ
Keywords
Τυχαία Θέματα