ΠΟΥ: «Καμπανάκι» για τους κινδύνους της τεχνητής νοημοσύνης στην υγεία

Τα δεδομένα που χρησιμοποιεί η AI προκειμένου να καταλήξει σε αποφάσεις μπορεί να είναι μεροληπτικά ή να χρησιμοποιούνται λανθασμένα, σημείωσε σήμερα (16/5) ο ΠΟΥ, για τη χρήση της τεχνητής νοημοσύνης (Artificial Intelligence - ΑΙ) στη δημόσια υγεία.

Ο ΠΟΥ ανέφερε σε δελτίο Τύπου πως τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση της ΑΙ μπορεί να είναι μεροληπτικά, παράγοντας παραπλανητικές ή ανακριβείς πληροφορίες που μπορεί να δημιουργούν απειλές για την υγεία, την ισότητα και τη συμπεριληπτικότητα

και πως τα μοντέλα μπορεί να χρησιμοποιηθούν λανθασμένα με αποτέλεσμα να παράγουν και να διασπείρουν πολύ πειστικά παραπληροφόρηση με τη μορφή κειμένου, ηχητικού ή βίντεο το οποίο το κοινό είναι δύσκολο να ξεχωρίσει από ένα αξιόπιστο περιεχόμενο για την υγεία.

Είναι «επιτακτική ανάγκη» να αποτιμηθούν οι κίνδυνοι από τη χρησιμοποίηση μεγάλων γλωσσικών μοντέλων (LLMs), όπως το ChatGPT, ώστε να προστατευθεί και να προωθηθεί η ανθρώπινη ευημερία, ανέφερε ο οργανισμός του ΟΗΕ για την υγεία.

Η προειδοποίησή του έρχεται καθώς οι εφαρμογές τεχνητής νοημοσύνης αποκτούν πολύ γρήγορα αποδοχή, υπογραμμίζοντας μια τεχνολογία που θα μπορούσε να ανατρέψει τον τρόπο που λειτουργούν οι επιχειρήσεις και η κοινωνία.

ΠΟΥΥΓΕΙΑτεχνητή νοημοσύνηκίνδυνοι
Keywords
Τυχαία Θέματα