Ο άνθρωπος «έπλασε» τα ρομπότ κατ’ εικόνα και καθ’ ομοίωση

ΚΟΣΜΟΣΈντυπη Έκδοση

Οι εφαρμογές τεχνητής νοημοσύνης αναπαράγουν ανθρώπινες συμπεριφορές

«Καθρέφτη» της κοινωνίας αποτελούν οι προκαταλήψεις μας, είτε είναι φυλετικές είτε κοινωνικές, αφού είναι προϊόντα του πολιτισμού στον οποίο ζούμε. Τα στερεότυπα αρκετές φορές, καλώς ή κακώς, επηρεάζουν τον τρόπο με τον οποίο αλληλεπιδρούμε με τους γύρω μας, μέχρι και τη γλώσσα που χρησιμοποιούμε. Ωστόσο δημιουργούνται κάποια ερωτήματα στο πεδίο της επιστήμης και της τεχνολογίας που ασχολείται με την τεχνητή νοημοσύνη: Αυτά τα στερεότυπα επηρεάζουν με τη σειρά τους τα προγράμματα Τεχνητής Νοημοσύνης,
εφόσον τα κουβαλάνε οι δημιουργοί τους ή μπορούν να τα υπερβούν; Οι αλγόριθμοι με «μαθησιακά προγράμματα» για μηχανές (machine learning) έχουν καταφέρει να γράψουν κώδικα, να παίξουν πόκερ και τώρα χρησιμοποιούνται σε μια προσπάθεια να βρουν λύση για τον καρκίνο. Ωστόσο υπάρχει ένα πρόβλημα μεροληψίας. Τρεις ακαδημαϊκοί του Πανεπιστημίου Πρίνστον έδειξαν ότι οι εφαρμογές τεχνητής νοημοσύνης αναπαράγουν πιστά και άκριτα στερεότυπα που εμφανίζονται στην ανθρώπινη κοινωνία, όπως ρατσιστικές εκφράσεις ή συμπεριφορές.Αυτές οι προκαταλήψεις σχετίζονται τόσο με το φύλο όσο και με τη φυλή. Σύμφωνα με επιστημονική έρευνα που δημοσιεύθηκε στο περιοδικό «Science», τα μαθησιακά προγράμματα των ρομπότ «απορροφούν στερεότυπες προκαταλήψεις» κατά την εκμάθηση μιας γλώσσας. Η επιστήμονας των πανεπιστημίων Πρίνστον και Μπαθ, Τζοάνα Μπράιζον, παραδέχεται ότι «μάθαμε κάτι για το πώς μεταφέρουμε τις προκαταλήψεις μας στην τεχνητή νοημοσύνη, κάτι που ουσιαστικά δεν είχαμε καταλάβει ότι κάναμε». Πώς το ανακάλυψανΤο ειδικό Τεστ Υπόρρητων Συνειρμών (Implicit Association Test) εκτιμά το πώς οι άνθρωποι αυτομάτως και μη συνειδητά συσχετίζουν ορισμένες αρνητικές ή θετικές αξιολογήσεις τους με διαφορετικές κοινωνικές ομάδες. Είναι ένα χρήσιμο εργαλείο για τους ψυχολόγους, οι οποίοι το αξιοποιούν από το 1990 για να ανιχνεύσουν με σχετική ακρίβεια τις ανθρώπινες υπόρρητες προκαταλήψεις. Μεταξύ άλλων, το τεστ παρέχει έναν δείκτη για το πώς διαφορετικά άτομα αποδίδουν θετικές ή αρνητικές ιδιότητες στα λευκά ή έγχρωμα πρόσωπα που βλέπουν.Έτσι, δημιουργήθηκε η Σύγχρονη Ρατσιστική Κλίμακα (Modern Racism Scale) που επιτρέπει στους ψυχολόγους να μετρούν τις ρατσιστικές - φυλετικές προκαταλήψεις των εθελοντών που υποβάλλονται σε αυτό το λεκτικό τεστ. Για παράδειγμα, το τεστ αυτό έδειξε ότι οι περισσότεροι λευκοί Αμερικανοί συσχετίζουν πολύ πιο γρήγορα μια αρνητική λέξη με το πρόσωπο ενός μαύρου, αλλά και ότι εκδηλώνουν έναν υποσυνείδητο φόβο όταν παρατηρούν πρόσωπα Αφροαμερικανών, παρ’ όλο που μπορεί να μιλάνε θετικά γι’ αυτά τα άτομα. Οι Αμερικανοί επιστήμονες του Πρίνστον χρησιμοποίησαν το τεστ πάνω στον δημοφιλή αλγόριθμο GloVe, ο οποίος είναι εκπαιδευμένος σε 840 δισ. λέξεις από το Διαδίκτυο. Επιπλέον, χρησιμοποίησαν ένα κείμενο από το Διαδίκτυο για να πειραματιστούν με την αντιστοίχιση των λέξεων. Κάθε φορά που ολοκληρωνόταν ένα Τεστ Υπόρρητων Συνειρμών, τα μαθησιακά προγράμματα του αλγορίθμου μάθαιναν προκαταλήψεις από την ανθρώπινη γλώσσα, σύμφωνα με την επιστήμονα Τζοάνα Μπράιζον. Στην έρευνα αναφέρεται ότι «μια ομάδα ονομάτων που σχετίζονται με Ευρωπαίους Αμερικανούς βρέθηκε να συνδέεται πολύ πιο εύκολα με ευχάριστους παρά δυσάρεστους όρους, σε σύγκριση με μια ομάδα αφρο-αμερικανικών ονομάτων». Σε μια άλλη περίπτωση, τα γυναικεία ονόματα βρέθηκαν να σχετίζονται περισσότερο με οικογενειακές λέξεις παρά με λέξεις που αφορούν την καριέρα, σε σύγκριση με τα αντρικά ονόματα. Τα συμπεράσματαΤα ευρήματα της έρευνας δεν αποτελούν έκπληξη για τους επιστήμονες, αφού τα μαθησιακά προγράμματα μηχανών έχουν τη δυνατότητα μόνο να ερμηνεύουν τα δεδομένα για τα οποία εκπαιδεύονται.Τον Μάιο του 2016, η δημοσιογραφική ΜΚΟ ProPublica ανέφερε ότι ένα λογισμικό που χρησιμοποιήθηκε στις ΗΠΑ για την πρόβλεψη μελλοντικών εγκλημάτων, ήταν προκατειλημμένο κατά των Αφροαμερικανών, αφού τα δεδομένα που του δόθηκαν δεν ήταν ακριβή. Ενώ η δυναμική των γλωσσικών προκαταλήψεων δεν χρησιμοποιείται σε πολλές τεχνολογίες σήμερα, η έρευνα υπογραμμίζει πως προκαταλήψεις και στερεότυπα μπορούν εύκολα να μεταφερθούν σε αυτές.«Το σημαντικό ζήτημα για τις μηχανές είναι ότι δεν χρειαζόμαστε ένα σύστημα τεχνητής νοημοσύνης να εκπαιδευτεί στον πολιτισμό του σήμερα ή σε έναν παλιότερο πολιτισμό και μετά να το κλείσουμε» δήλωσε η Τζοάνα Μπράιζον και πρόσθεσε ότι, καθώς τα συστήματα τεχνητής νοημοσύνης εξελίσσονται μαζί με τον πολιτισμό, θα πρέπει να εγκαθίστανται σε αυτά ενημερώσεις και να αναπροσαρμόζονται σε νέα δεδομένα. «Τα ευρήματά μας υποδεικνύουν ότι αν κατασκευάσουμε ένα έξυπνο σύστημα που να μαθαίνει αρκετά για τις ιδιότητες της γλώσσας ώστε να μπορεί να την κατανοήσει και να την παράγει, σε αυτή τη διαδικασία θα αποκτήσει και ιστορικές, πολιτιστικές συνδέσεις, κάποιες από τις οποίες μπορεί να είναι απαράδεκτες» καταλήγει η έρευνα.ρομπόττεχνολογίαρομπότ ρατσισμόςIssue: 1969Issue date: 18-05-2017 Has video: Exclude from popular: 0
Keywords
Τυχαία Θέματα