H Τεχνητή Νοημοσύνη είναι ρατσίστρια

Η τεχνητή νοημοσύνη δεν είναι μόνο ατελής, αλλά δυστυχώς έχει υιοθετήσει ρατσιστικά χαρακτηριστικά καθώς είναι αναρίθμητα τα περιστατικά που εκτελεί εσφαλμένη αναγνώριση ατόμων με πιο σκουρόχρωμο δέρμα ενώ είναι προκατειλημμένη με τη γλώσσα δεν ομιλήται από λευκούς ομιλητές.

Η τεχνητή νοημοσύνη αναγνώρισης προσώπου, όπως αυτή που χρησιμοποιείται από αστυνομικά τμήματα στις ΗΠΑ, έχει σχεδιαστεί για να αναγνωρίζει συγκεκριμένα πρόσωπα από μεγάλα σύνολα δεδομένων φωτογραφιών.

Είναι

ένα από τα πολλά είδη τεχνητής νοημοσύνης που χρησιμοποιούνται σε όλο τον κόσμο, και σύμφωνα με το Business Insider είναι ένα επικίνδυνα ελαττωματικό σύστημα.

Μελέτη του 2018 από τους ειδικούς Joy Buolamwini και Timnit Gebru, οι οποίοι αξιολόγησαν τα εργαλεία αναγνώρισης προσώπου που προσφέρονται από τη Microsoft, την IBM και το Face++, διαπίστωσε ότι οι γυναίκες με πιο σκουρόχρωμο δέρμα ήταν πιο πιθανό να αναγνωριστούν εσφαλμένα από την τεχνολογία αναγνώρισης προσώπου, με ποσοστό λάθους του 35%.

Σήμερα, η τεχνητή νοημοσύνη εξακολουθεί να κάνει ανησυχητικά λάθη, συμπεριλαμβανομένης της εσφαλμένης αναγνώρισης ατόμων με πιο σκουρόχρωμο δέρμα και της προκατάληψης όταν επεξεργάζεται γλώσσα που σχετίζεται με μη λευκούς ομιλητές.

Πιο πρόσφατη έρευνα που δημοσιεύθηκε τον Μάρτιο, από τον Βαλεντίν Χόφμαν, ερευνητή στο Allen Institute for AI, διαπίστωσε ότι όταν τα αφροαμερικανικά αγγλικά χρησιμοποιήθηκαν για μοντέλα όπως το GPT-4 του OpenAI και το T5 της Google, δίνουν απαντήσεις που «ενσωματώνουν τον κρυφό ρατσισμό στη μορφή της διαλεκτικής προκατάληψης».

Η μελέτη ζήτησε από τα μοντέλα τεχνητής νοημοσύνης να κρίνουν σε υποθετικές ποινικές υποθέσεις όπου το μόνο αποδεικτικό στοιχείο ήταν μια δήλωση του κατηγορουμένου είτε στα αφροαμερικανικά αγγλικά είτε στα τυπικά αμερικανικά αγγλικά. Όταν χρησιμοποιήθηκε η αφροαμερικανική, τα μοντέλα ήταν πιο πιθανό να αποφανθούν ότι οι κατηγορούμενοι έπρεπε να καταδικαστούν.

Η μελέτη διαπίστωσε επίσης ότι σε μια υποθετική δίκη δολοφονίας, τα μοντέλα τεχνητής νοημοσύνης ήταν πιο πιθανό να προτείνουν τη θανατική ποινή για έναν ομιλητή αφροαμερικανικών.

«Λευκή» τεχνητή νοημοσύνη

Βασικός λόγος για αυτές τις αποτυχίες είναι ότι οι άνθρωποι και οι εταιρείες που κατασκευάζουν Τεχνητή Νοημοσύνη δεν αντιπροσωπεύουν τον κόσμο που υποτίθεται ότι περικλείουν τα μοντέλα Τεχνητής Νοημοσύνης.

Τα εκπαιδευτικά προγράμματα στην πληροφορική κατακλύζονται από λευκούς άνδρες. Ενδεικτικά, το Εθνικό Κέντρο Στατιστικών Εκπαίδευσης των ΗΠΑ ανέφερε ότι το 1991, οι λευκοί μαθητές κέρδισαν πάνω από το 70% των πτυχίων στην επιστήμη των υπολογιστών, ενώ οι μαύροι φοιτητές κέρδισαν περίπου το 8% των πτυχίων.

Το 2022, το τελευταίο έτος που έχει καταγραφεί, οι λευκοί φοιτητές κέρδισαν περίπου το 46% των πτυχίων στην επιστήμη των υπολογιστών, σε σύγκριση με περίπου 9% για τους μαύρους φοιτητές. Οι Ασιάτες φοιτητές σημείωσαν το μεγαλύτερο κέρδος εκείνη την περίοδο, από το 8% περίπου των πτυχίων σε πάνω από το 19%.

Οι εταιρείες Big Tech που ηγούνται στην ανάπτυξη τεχνητής νοημοσύνης δεν είναι επίσης ιδιαίτερα διαφορετικές, παρά τις προσπάθειες πολλών ετών για τη βελτίωση αυτής της κατάστασης.

Το 2023, το 13,6% του πληθυσμού των ΗΠΑ αναγνωρίστηκε ως Μαύρος ή Αφροαμερικανός. Αντίθετα, η έκθεση DEI της Microsoft για το 2023 σημείωσε ότι το 6,7% του εργατικού δυναμικού της εταιρείας ήταν μαύροι.

Η τεχνητή νοημοσύνη έχει αναπτυχθεί σε μεγάλο βαθμό από λευκούς ερευνητές και έχει εκπαιδευτεί στη δυτική λογοτεχνία και εικόνες. Ίσως δεν πρέπει να προκαλεί έκπληξη το γεγονός ότι αυτά τα μοντέλα δίνουν απαντήσεις που στερούνται πολιτισμικής κατανόησης και προσφέρουν κατώτερες επιδόσεις στον εντοπισμό γυναικών με πιο σκουρόχρωμο δέρμα.

Οι εταιρείες τεχνολογίας έχουν αναγνωρίσει ορισμένες από αυτές τις προκλήσεις. Το OpenAI περιέγραψε τις προκαταλήψεις στα εργαλεία του ως «σφάλματα, όχι χαρακτηριστικά» και είπε ότι «εργάζεται για να μοιραστεί συγκεντρωτικές δημογραφικές πληροφορίες» σχετικά με τα άτομα που εξετάζουν τα μοντέλα τεχνητής νοημοσύνης του.

Keywords
Τυχαία Θέματα