Τι πιστεύεις, το Facebook λογοκρίνει τις ειδήσεις που αναρτούμε στον τοίχο μας;

Πολλοί άνθρωποι προτιμούν να διαβάζουν ειδήσεις στο Facebook, όμως οι ειδήσεις που εμφανίζονται στο προφίλ τους αποφασίζονται εκ των προτέρων από έναν αλγόριθμο. Μήπως όμως ο αλγόριθμος φιλτράρει τις ειδήσεις που διαφωνούν με τις απόψεις μας;

Ερευνητική ομάδα στην οποία συμμετείχαν κοινωνιολόγοι

του ίδιου του Facebook παραδέχεται με δημοσίευση στο περιοδικό Science ότι ο τρόπος με τον οποίο τα κοινωνικά δίκτυα επιλέγουν το περιεχόμενο που θα προτείνουν σε κάθε χρήστη θα μπορούσε να έχει σημαντικές συνέπειες για τη δημοκρατία.

Ο βασικός κίνδυνος είναι ο αποκλεισμός της αντίθετης άποψης, κάτι που θα οδηγούσε τελικά σε ιδεολογική και πολιτική πόλωση -ένας κίνδυνος για τον οποίο προειδοποιούν εδώ και χρόνια ορισμένοι αναλυτές. Προηγούμενες μελέτες, εξάλλου, έχουν δείξει ότι οι άνθρωποι προτιμούν να διαβάζουν απόψεις με τις οποίες συμφωνούν.

Το κατά πόσο τα κοινωνικά δίκτυα μεγεθύνουν αυτή την προκατάληψη θα ήταν δύσκολο να γίνει αντιληπτό χωρίς προσεκτική ανάλυση, αφού πολλοί χρήστες πιστεύουν ότι βλέπουν όλες ανεξαιρέτως τις αναρτήσεις των φίλων τους. Στην πραγματικότητα, όμως, το Facebook επιλέγει ποιες από τις αναρτήσεις αυτές θα προβάλλει.

Η μελέτη δείχνει καθησυχαστική, αφού δείχνει ότι ο αλγόριθμος του Facebook έχει πολύ μικρή επίδραση, της τάξης του 1%, στην πιθανότητα να διαβάσει ένας χρήστης πολιτικές ειδήσεις του αντίπαλου στρατοπέδου.

Οι ερευνητές του Facebook και του Πανεπιστημίου του Μίσιγκαν στο Αν Άρμπορ εξέτασαν 10,1 εκατομμύρια Αμερικανούς χρήστες που έχουν δηλώσει τις πολιτικές τους πεποιθήσεις στα προφίλ τους, και είχαν μοιραστεί 7 εκατομμύρια συνδέσμους για ειδήσεις το διάστημα Ιούλιος 2014 - Ιανουάριος 2015.

Καθεμία από τις ειδήσεις αυτές αξιολογήθηκε ως προς την πολιτική θέση της (συντηρητική ή φιλελεύθερη) με βάση τις πολιτικές πεποιθήσεις των χρηστών που είχαν δημοσιεύσει συνδέσμους για τη συγκεκριμένη είδηση. Οι ερευνητές συνέκριναν στη συνέχεια τα ποσοστά των ειδήσεων που είχαν ή δεν είχαν διαβαστεί από χρήστες με αντίθετες πολιτικές απόψεις.

Η ανάλυση έδειξε ότι το 23% των φίλων κάθε χρήστη έχει αντίθετες πολιτικές απόψεις από τον ίδιο. Επιπλέον, το 29% των ειδήσεων που εμφανίζεται στο News Feed του Facebook έχουν διαφορετική πολιτική στάση από τον χρήστη στον οποίο προτείνονται.

Το σημαντικότερο όμως είναι ότι ο αλγόριθμος μειώνει μόλις κατά 1% την πιθανότητα να εκτεθεί ένας οποιοσδήποτε χρήστης σε απόψεις με τις οποίες διαφωνεί.

Η ερευνητική ομάδα καταλήγει στο συμπέρασμα ότι το κατά πόσο ένας χρήστης εκτίθεται στην αντίθετη άποψη εξαρτάται κυρίως από τον ίδιο και όχι από εξωτερικές παραμέτρους.

Η ερευνητική ομάδα αναγνωρίζει ωστόσο ότι η μελέτη έχει περιορισμούς, αφού το δείγμα περιορίζεται στους αμερικανούς χρήστες μιας συγκεκριμένης υπηρεσίας οι οποίοι δηλώνουν ανοιχτά τις πολιτικές πεποιθήσεις τους. Επιπλέον, πολλοί χρήστες μπορεί να διαβάζουν τις περιλήψεις των ειδήσεων χωρίς να τις κλικάρουν.

Σε συνοδευτικό άρθρο σχολιασμού που δημοσιεύεται στο ίδιο τεύχος του Science, ο Ντέιβιντ Λέιζερ του Πανεπιστημίου Northeastern της Βοστόνης χαρακτηρίζει σημαντικά τα ευρήματα της μελέτης. Ζητά όμως «συνεχή επαγρύπνιση» της κοινωνίας, δεδομένου ότι «μια μικρή επίδραση σήμερα μπορεί να γίνει μια μεγάλη επίδραση αύριο, ανάλογα με τις αλλαγές στους αλγόριθμους και την ανθρώπινη συμπεριφορά».

Keywords
Τυχαία Θέματα