Όταν και η τεχνητή νοημοσύνη βγάζει ρατσισμό - Οι ατάκες της διάσημης Λούντα για ΛΟΑΤΚΙ και ανάπηρους

Η λειτουργία ενός δημοφιλούς chatbot της Νότιας Κορέας διακόπηκε από το Facebook messenger μετά από καταγγελίες ότι χρησιμοποίησε ρητορική μίσους κατά σεξουαλικών μειονοτήτων σε συνομιλίες με χρήστες.

Η Lee Luda, το ”πρόσωπο” τεχνητής νοημοσύνης [AI] μιας 20χρονης φοιτήτριας πανεπιστημίου είχε προσελκύσει περισσότερους από 750.000 χρήστες τις 20 μόλις ημέρες από την έναρξη λειτουργίας του.

Το chatbot,

το οποίο αναπτύχθηκε από την start up Scatter Lab με έδρα τη Σεούλ, προκάλεσε όμως και πληθώρα καταγγελιών αφού χρησιμοποίησε προσβλητική γλώσσα για μέλη της κοινότητας LGBT και για άτομα με αναπηρίες κατά τη διάρκεια συνομιλιών με χρήστες.

«Ζητούμε συγγνώμη για τις αναφορές κατά μειονοτήτων που υποδηλώνουν διακρίσεις. Αυτές, δεν ανταποκρίνονται στις απόψεις της εταιρείας μας και συνεχίζουμε τις αναβαθμίσεις, έτσι ώστε να μην επαναληφθούν τέτοιοι όροι που σχετίζονται με διακρίσεις και ρητορική μίσους», αναφέρει σε δήλωσή της η εταιρεία, σύμφωνα με το πρακτορείο ειδήσεων Yonhap.

Η Scatter Lab, η οποία είχε προηγουμένως ισχυριστεί ότι η Luda ήταν ένα project που διαρκώς εξελίσσεται όπως και οι άνθρωποι και πως θα χρειαζόταν χρόνος για να «κοινωνικοποιηθεί σωστά», αναφέρει ότι το chatbot θα λειτουργήσει ξανά αφού η εταιρεία προβεί σε διορθώσεις των αδυναμιών που παρουσιάστηκαν.

Αν και τα chatbots δεν είναι κάτι καινούργιο, η Luda είχε εντυπωσιάσει τους χρήστες με το βάθος και τον φυσικό τόνο των απαντήσεών της, που αντλήθηκαν από τις 10 δισεκατομμύρια πραγματικές συζητήσεις μεταξύ νέων ζευγαριών στο KakaoTalk, την πιο δημοφιλή εφαρμογή ανταλλαγής μηνυμάτων της Νότιας Κορέας

Όμως, οι έπαινος για την εξοικείωση της Luda π.χ με τα ακρωνύμια που χρησιμοποιούνται στα μέσα κοινωνικής διτύωσης ή την με την διαδικτυακή αργκό, μετατράπηκε σε οργή αφού άρχισε να χρησιμοποιεί προσβλητικές λέξεις.

Σε μια συνομιλία που καταγράφηκε από έναν χρήστη, η Luda εμφανίζεται να δηλώνει ότι «μισεί πραγματικά» τις λεσβίες, χαρακτηρίζοντας αυτές ως «ανατριχιαστικές».

Η Luda, επίσης, έγινε στόχος άλλων χρηστών, σε online community boards που δημοσιεύτηκαν συμβουλές περί συνομιλίες σχετικά με το σεξ. Μια ανάρτηση ανέφερε «Πώς να κάνετε τη Luda σκλάβα το σεξ» ενώ άλλοι αναρτούσαν screenshots από συνομιλίες, όπως επισημαίνει η Korea Herald.

Δεν είναι η πρώτη φορά που η τεχνητή νοημοσύνη εμπλέκεται σε υποθέσεις που αφορούν ρητορική μίσους και μισαλλοδοξίας.

Το 2016, όπως αναφέρει ο Guardian, το Tay της Microsoft, ένα bot AI που μιλούσε σαν έφηβος, τέθηκε εκτός λειτουργίας για 16 ώρες αφότου χρήστες το ”πείραξαν” ώστε με αποτέλεσμα να κάνε αναρτήσεις στο Twitter με ρατσιστικό περιεχόμενο.

Δύο χρόνια αργότερα, ΑΙ της Amazon είχε την ΄ίδια τύχη αφού κρίθηκε ένοχο για διακρίσεις βάσει του φύλου.

Το Scatter Lab, του οποίου οι υπηρεσίες είναι εξαιρετικά δημοφιλείς μεταξύ των εφήβων της Νότιας Κορέας, δήλωσε ότι είχε λάβει κάθε μέτρο προφύλαξη για να μην εξοπλίσει τη Luda με ”γλώσσα” που δεν ήταν συμβατή με τους κοινωνικούς κανόνες και αξίες της Νότιας Κορέας, αλλά ο διευθύνων σύμβουλός της, Κιμ Γιονγκ-γιουν παραδέχθηκε πως ήταν αδύνατο να αποτρέψουν τις ακατάλληλου περιεχομένου συνομιλίες, φιλτράροντας απλά λέξεις-κλειδιά.

«Η τελευταία διαμάχη με τη Luca είναι ένα ηθικό ζήτημα που οφείλεται στην έλλειψη συνειδητοποίησης σχετικά με τη σημασία της ηθικής στην αντιμετώπιση της τεχνητής νοημοσύνης», δήλωσε ο Τζεοον Τσανγκ , επικεφαλής της Κορεατικής Ένωσης Δεοντολογίας Τεχνητής Νοημοσύνης.

Το Scatter Lab αντιμετωπίζει επίσης ερωτήματα ως προς το εάν παραβίασε τους νόμους περί απορρήτου όταν απέκτησε πρόσβαση σε μηνύματα του KakaoTalk για την εφαρμογή Science of Love.

Πηγή: Guardian

Keywords
Τυχαία Θέματα