Για καλό ή για κακό ήρθε το ChatGPT και η παρέα του;

Ποια είναι η «μαγεία» του ChatGPT που κάνει τους ανθρώπους τόσο τρελούς με αυτό; Όποια και αν είναι οι ειδικοί συνιστούν συνετή χρήση ώστε να μην προκαλέσουμε κακό στον εαυτό μας ή στους άλλους

Από την ημέρα κυκλοφορίας του το ChatGPT κέρδισε μεγάλη προσοχή-προσελκύοντας περισσότερους από 1 εκατομμύριο χρήστες σε πέντε ημέρες μετά την κυκλοφορία του στις 30 Νοεμβρίου 2022- και προκαλώντας πολλές συζητήσεις στις διαδικτυακές πλατφόρμες και όχι μόνο.

Το ChatGPT είναι ένα μοντέλο επεξεργασίας φυσικής γλώσσας, το τελευταίο chatbot που ανέπτυξε ο μη κερδοσκοπικός ερευνητικός οργανισμός

OpenAI του Έλον Μασκ, εντυπωσιάζοντας τους πάντες.

Πρόκειται για μια εκδοχή του μοντέλου GPT-3 (Generative Pretrained Transformer 3) που εκπαιδεύτηκε πάνω σ’ έναν τεράστιο όγκο δεδομένων κειμένου και σχεδιάστηκε ειδικά για να απαντά σε ερωτήσεις, να γράφει κείμενα που δεν ξεχωρίζουν από των ανθρώπων και να ολοκληρώνει πολύπλοκες εργασίες με εύκολο τρόπο.

Τις τελευταίες εβδομάδες φάνηκε οι χρήστες των εργαλείων που τροφοδοτούνται από ΑΙ και ειδικά του ChatGPT να περνούν μια φάση σαν μήνα του μέλιτος με αυτό. Το χρησιμοποιούν παντού για να δημιουργήσουν απαντήσεις με εκπληκτικά φυσική γλώσσα, για γραπτές εργασίες, για σύνθεση επιχειρηματικών προτάσεων, για δημιουργία chatbot για εξυπηρέτηση πελατών ή ακόμη και για αναρτήσεις στα μέσα κοινωνικής δικτύωσης.

Όπως όταν πρωτοεμφανίστηκαν τα smartphone και τα κοινωνικά δίκτυα, έτσι και αυτά τα εργαλεία δείχνουν διασκεδαστικά και συναρπαστικά. Ωστόσο, όπως συμβαίνει πάντα με τη νέα τεχνολογία, συνοδεύονται από μειονεκτήματα, οδυνηρά μαθήματα και ανεπιθύμητες συνέπειες.

Οι ειδικοί λένε πως έχουμε φτάσει σε ένα σημείο καμπής με την τεχνητή νοημοσύνη και πως τώρα είναι η κατάλληλη στιγμή για παύση και αξιολόγηση. Το ερώτημα είναι αν μπορούμε να χρησιμοποιήσουμε αυτά τα εργαλεία ηθικά και με ασφάλεια;

Ας αρχίσουμε από τα θετικά:

Η πλατφόρμα που απαντάει σε όλα θα μπορούσε να εντοπίσει πρώιμα σημάδια του Αλτσχάιμερ

Ερευνητές από τη Σχολή Βιοϊατρικής Μηχανικής, Επιστήμης και Συστημάτων Υγείας του Πανεπιστημίου Drexel στη Φιλαδέλφεια σε δημοσίευση στο περιοδικό PLOS Digital Health, υποστηρίζουν ότι μια πολλά υποσχόμενη οδός για την έγκαιρη ανίχνευση του Αλτσχάιμερ είναι η αυτοματοποιημένη ανάλυση ομιλίας.

Η έγκαιρη διάγνωση του Αλτσχάιμερ μπορεί να βελτιώσει σημαντικά τις επιλογές θεραπείας και να δώσει στους ασθενείς χρόνο να κάνουν αλλαγές στον τρόπο ζωής που θα μπορούσαν να επιβραδύνουν την εξέλιξή της. Ωστόσο, απαιτείται συνήθως απεικόνιση εγκεφάλου ή μακροχρόνιες γνωστικές αξιολογήσεις, οι οποίες μπορεί να είναι και δαπανηρές και χρονοβόρες και επομένως ακατάλληλες για εκτεταμένο έλεγχο, σχολιάζει ο Hualou Liang , καθηγητής βιοϊατρικής μηχανικής στο Πανεπιστήμιο Drexel, στη Φιλαδέλφεια.

Η διάγνωση της νόσου βασίζεται σε ειδικά κατασκευασμένα μοντέλα, αλλά ο Liang και οι συνάδελφοί του ήθελαν να δουν αν μπορούν να χρησιμοποιήσουν την τεχνολογία πίσω από το ChatGPT για να αναγνωρίσουν σημάδια της νόσου Αλτσχάιμερ. Τελικά ανακάλυψαν ότι το ChatGPT θα μπορούσε να κάνει διάκριση μεταξύ μεταγραφών ομιλίας από ασθενείς με Αλτσχάιμερ και υγιείς εθελοντές αρκετά καλά ώστε να προβλέψει την ασθένεια με ακρίβεια 80% (επίδοση αιχμής).

Αυτό ήταν σημαντικά καλύτερο από το 74,6 % που πέτυχαν οι ερευνητές όταν εφάρμοσαν μια πιο συμβατική προσέγγιση στα δεδομένα ομιλίας, η οποία βασίζεται σε ακουστικά χαρακτηριστικά που πρέπει να εντοπιστούν με κόπο από τους ειδικούς.

Συνέκριναν επίσης την τεχνική τους με διάφορες προσεγγίσεις μηχανικής μάθησης αιχμής που χρησιμοποιούν επίσης μεγάλα γλωσσικά μοντέλα, αλλά περιλαμβάνουν ένα επιπλέον βήμα στο οποίο το μοντέλο προσαρμόζεται επίπονα χρησιμοποιώντας ορισμένες από τις μεταγραφές από τα δεδομένα εκπαίδευσης. Ταίριαξαν με τις επιδόσεις του κορυφαίου μοντέλου και ξεπέρασαν τα άλλα δύο.

To ChatGTP ξεγελάει τους επιστήμονες

Επιστήμονες ξεγελάστηκαν θεωρώντας πραγματικές τις ψεύτικες επιστημονικές περιλήψεις και ερευνητικές εργασίες που δημιουργήθηκαν χρησιμοποιώντας το εξαιρετικά προηγμένο chatbox ChatGPT, σύμφωνα με μια νέα μελέτη.

Ερευνητές στα Πανεπιστήμια Northwestern και του Σικάγο ανέθεσαν στο ChatGPT να δημιουργήσει περιλήψεις έρευνας (abstract) βασισμένες σε 10 πραγματικές που δημοσιεύτηκαν σε ιατρικά περιοδικά και μέσω δύο προγραμμάτων ανίχνευσης, προσπάθησαν να διακρίνουν τις ψεύτικες από τις πραγματικές. Προώθησαν επίσης τα πλαστά και τα αληθινά κείμενα σε κριτές και τους ζήτησαν να διακρίνουν μεταξύ των δύο σε μια τυφλή μελέτη. Οι κριτές προσδιόρισαν σωστά τις περιλήψεις του ChatGPT στο 68% των περιπτώσεων, αλλά επισήμαναν εσφαλμένα το 14% των πραγματικών ως πλαστές.

Κατά την αξιολόγηση από ένα πρόγραμμα ανίχνευσης λογοκλοπής, μόνοτ ο 8% αυτών βρέθηκε να ακολουθεί τις απαιτήσεις μορφοποίησης που απαιτούνται από επιστημονικά περιοδικά. Σύμφωνα με τους κριτές, τα πλαστά κείμενα ήταν «πιο ασαφή και είχαν έναν τυπικό τρόπο γραφής», αν και ήταν «παραδόξως δύσκολο» να προσδιοριστεί ποια ήταν αληθινά και ποια όχι, σύμφωνα με τη μελέτη.

«Το γεγονός ότι οι κριτές δεν κατάλαβαν τις περιλήψεις που δημιουργήθηκαν με τεχνητή νοημοσύνη στο 32% των περιπτώσεων σημαίνει ότι αυτές ήταν πολύ καλές», είπε η ερευνήτρια του Northwestern University, Catherine Gao.

«Ωστόσο, τα chatbots μπορούν να μας ξεγελάσουν και να πιστέψουμε ότι καταλαβαίνουν περισσότερα από ό,τι καταλαβαίνουν και αυτό μπορεί να προκαλέσει προβλήματα», είπε η Melanie Mitchell, ερευνήτρια στο Ινστιτούτο Σάντα Φε.

Από την κυκλοφορία του λογισμικού ορισμένοι επικριτές προειδοποίησαν ότι το ChatGPT είναι πολύ παρόμοιο με την ανθρώπινη συνομιλία και θα μπορούσε να χρησιμοποιηθεί από μαθητές για να εξαπατήσουν με ψεύτικες εργασίες τους εκπαιδευτικούς και από εταιρείες να αντικαταστήσουν ορισμένες ανθρώπινες θέσεις εργασίας με ΑΙ. Για αυτό από την περασμένη εβδομάδα, στα Δημόσια Σχολεία της Νέας Υόρκης απαγορεύτηκε η χρήση του λόγω ανησυχιών για εξαπάτηση.

Η μελέτη έρχεται καθώς η Microsoft φέρεται να κλείνει μια επενδυτική συμφωνία 10 δισεκατομμυρίων δολαρίων που θα αποτιμούσε την OpenAI στα $29 δισεκατομμύρια και θα έδινε στη Microsoft μερίδιο 49% στην εταιρεία καθώς και το 75% των κερδών της. Δύο άλλες εταιρείες επιχειρηματικού κεφαλαίου οι The Founders Fund και Thrive Capital φαίνεται πως βρίσκονται επίσης σε συνομιλίες για την αγορά $300 εκατομμυρίων δολαρίων σε μετοχές OpenAI.

Ωστόσο, την περασμένη βδομάδα ένα νέο εργαλείο που μόλις εμφανίστηκε στον Ιστό, καθιστά δυνατή την αναγνώριση κειμένων που παράγονται από ChatGPT. Δημιουργός είναι ένας φοιτητής πληροφορικής και δημοσιογραφίας από το Πρίνστον, ο Έντουαρντ Τιάν, που το ονόμασε GPTZero. Ο νεαρός, όπως ισχυρίζεται, ανέπτυξε ένα πρόγραμμα που επιτρέπει, απλά εισάγοντας το κείμενο, να ελέγξει αν έχει δημιουργηθεί ή όχι από μια τεχνητή νοημοσύνη. Για να το κάνει αυτό, το GPTZero βασίζεται σε δύο μεταβλητές, στο bewilderment (τυχαιότητα) μιας πρότασης και στο burstiness ολόκληρου του κειμένου.

To ChatGPT αλλάζει τον τρόπο σκέψης στη κυβερνοασφάλεια

Αλλά και η αντίδραση των επαγγελματιών της κυβερνοασφάλειας στο ChatGPT είναι ενδιαφέρουσα. Δεκάδες ερευνητές στον τομέα το δοκιμάζουν για το βάθος, την πολυπλοκότητα και τις δυνατότητές του και καταλήγουν στο ότι η τεχνητή νοημοσύνη, ή τουλάχιστον τα προηγμένα προγράμματα μηχανικής μάθησης, μπορεί να είναι το είδος της τεχνολογίας που όντως αλλάζει το παιχνίδι και στον κλάδο τους.

Σε σύντομο χρονικό διάστημα οι ερευνητές κυβερνοασφαλείας μπόρεσαν με τη χρήση του ChatGPT να εκτελέσουν μια σειρά από επιθετικές και αμυντικές εργασίες στον κυβερνοχώρο, όπως η δημιουργία πειστικών ή βελτιωμένων μηνυμάτων ηλεκτρονικού ψαρέματος, η ανάπτυξη κανόνων Yara, ο εντοπισμός υπερχείλισης buffer στον κώδικα, η δημιουργία κώδικα αποφυγής που θα μπορούσε να βοηθήσει τους εισβολείς να παρακάμψουν την ανίχνευση απειλών, ακόμη και δημιουργία κακόβουλου λογισμικού. Ενώ οι παράμετροι του ChatGPT το εμποδίζουν να συμμετέχει σε κακόβουλες εργασίες, πολλοί ερευνητές έχουν βρει έναν τρόπο να παρακάμψουν αυτούς τους περιορισμούς.

Ο Δρ. Suleyman Ozarslan, ερευνητής ασφαλείας και συνιδρυτής της Picus Security, είπε ότι μπόρεσε να κάνει το πρόγραμμα να εκτελέσει μια σειρά από επιθετικές και αμυντικές εργασίες στον κυβερνοχώρο, συμπεριλαμβανομένης της δημιουργίας ενός email με θέμα το Παγκόσμιο Κύπελλο στα «τέλεια αγγλικά», καθώς και τη δημιουργία δύο κανόνων ανίχνευσης Sigma για τον εντοπισμό ανωμαλιών στον κυβερνοχώρο που μπορούν να παρακάμψουν τους κανόνες ανίχνευσης.

Τι γίνεται με τους δημοσιογράφους;

Οι συνέπειες είναι φρικτές, ή όπως το έθεσε ο Hugo Rifkind στους Times, αντιπροσωπεύουν: «μια βόμβα αργής κίνησης που εκρήγνυται κάτω από περισσότερα επαγγέλματα από όσα θα μπορούσα να απαριθμήσω».

Ο Rifkind χρησιμοποίησε το bot για να γράψει ένα άρθρο γνώμης και χαρούμενος ανέφερε ότι τα αποτελέσματα ήταν τόσο βαρετά που πιθανότατα δεν θα τα έβαζαν καν στον Guardian. Όταν το ξαναείδε αργότερα δήλωσε ότι το κείμενο που παράχθηκε δεν είναι κάτι το οποίο θα ήθελε να υπογράψει, αλλά ούτε και τόσο κακό.

Βέβαια, εάν τα διαθέσιμα δεδομένα του bot ήταν μεροληπτικά, αυτό θα μπορούσε να οδηγήσει στη διάδοση ψευδών ή παραπλανητικών πληροφοριών. Η χρήση σε εκδοτικές διαδικασίες θα μπορούσε ενδεχομένως να οδηγήσει σε απώλεια θέσεων εργασίας για συγγραφείς, έχοντας αρνητικές συνέπειες για τις προοπτικές απασχόλησης και των δημοσιογράφων.

«Θα δούμε το ChatGPT και εργαλεία όπως αυτό να χρησιμοποιούνται με τρόπους που έχουν σκοπό να υπονομεύσουν την εμπιστοσύνη σε περιβάλλοντα παραγωγής πληροφοριών, ωθώντας τους ανθρώπους μακριά από τον δημόσιο λόγο σε ολοένα και πιο ομοιογενείς κοινότητες», αναφέρει το Nieman Journalism Lab.

Με μια δεύτερη οπτική, η ίδια πηγή προβλέπει ότι θα δούμε και μια σειρά από συναρπαστικά επί τόπου πειράματα και έρευνες να αναδύονται γύρω από το πώς η κοινωνία προσαρμόζεται σε εργαλεία δημιουργίας εικόνας και κειμένου όπως το ChatGPT και το Dall-E, για να χρησιμοποιήσουμε αυτές τις απίστευτες προόδους με τρόπους που ωφελούν πραγματικά την κοινωνία περιορίζοντας τις βλάβες, ιδιαίτερα για τους πιο ευάλωτους.

Απειλή για την Τέχνη;

Εργαλεία ΑΙ όπως ChatGPT, DALL-E, Midjourney και Stable Diffusion επέτρεψαν στους ερασιτέχνες να δημιουργήσουν σύνθετα, αφηρημένα ή φωτορεαλιστικά έργα απλά πληκτρολογώντας μερικές λέξεις σε ένα πλαίσιο κειμένου. Και ενώ αυτά τα εργαλεία μέχρι πρότινος ήταν διαθέσιμα μόνο σε ερευνητές και σε μια μικρή ομάδα χρηστών μόνο με πρόσκληση για δοκιμή, τώρα στο όνομα του «εκδημοκρατισμού» της δημιουργικότητας κυκλοφορούν δημόσια και μπορούν εύκολα να χρησιμοποιηθούν από όλους.

Τον περασμένο Σεπτέμβριο, ο ετήσιος διαγωνισμός Καλών Τεχνών του Colorado State Fair απένειμε στο πρώτο βραβείο στον Jason M. Allen, για το έργο «Théâtre D'Opera Spatial», το οποίο δημιούργησε ο ίδιος με το Midjourney, ένα πρόγραμμα τεχνητής νοημοσύνης που μετατρέπει γραμμές κειμένου σε υπερρεαλιστικά γραφικά. Ήταν ένα από τα πρώτα έργα ΑΙ που απέσπασαν ένα τέτοιο βραβείο, προκαλώντας τη σφοδρή αντίδραση καλλιτεχνών που τον κατηγόρησαν ουσιαστικά, για εξαπάτηση. Ωστόσο, ο Άλεν ισχυρίστηκε ότι είχε ξεκαθαρίσει εξαρχής ότι το έργο του δημιουργήθηκε με χρήση ΑΙ και ότι δεν είχε εξαπατήσει κανέναν.

Αυτές οι εφαρμογές έχουν κάνει πολλούς ανθρώπους καλλιτέχνες εύλογα να ανησυχούν για το μέλλον τους. Γιατί να πληρώσει κάποιος για τέχνη, την οποία θα μπορούσε να τη δημιουργήσει μόνος του; Αναρωτούνται. Έχουν επίσης προκαλέσει έντονες συζητήσεις σχετικά με την ηθική της τέχνης, αφού σύμφωνα με κάποιος ουσιαστικά πρόκειται μια μορφή λογοκλοπής υψηλής τεχνολογίας. Επιπλέον ερωτήματα σχετικά με το πόσο σημαντική θα συνεχίσει να είναι η ανθρώπινη συμβολή στη δημιουργική διαδικασία, αν μπορεί να υπάρξει τέχνη χωρίς καλλιτέχνη, η τέχνη που δημιουργείται από μια μηχανή, σε ποιον ανήκει, κ. ά, παραμένουν αναπάντητα.

Γνωρίζουμε από χρόνια έρευνας ότι οι άνθρωποι θα χρησιμοποιούν πάντα τις τεχνολογίες με τρόπους που οι δημιουργοί τους δεν σκόπευαν. Σε άλλους τομείς και κλάδους, οι κυβερνήσεις και τα όργανα διακυβέρνησης δημιουργούν κανόνες, νόμους και κανονισμούς για να περιορίσουν τις κακόβουλες ή επικίνδυνες χρήσεις δυνητικά επιβλαβών προϊόντων. Όμως, η πρόοδος στην τεχνητή νοημοσύνη και τις αλγοριθμικές τεχνολογίες με επίκεντρο τα δεδομένα έχουν ξεφύγει και λειτουργούν σε μεγάλο βαθμό εκτός αυτών των ειδών αξιολογήσεων και ελέγχων.

«Βρισκόμαστε στην αρχή ενός ευρύτερου κοινωνικού μετασχηματισμού», σχολιάζει στη The New York Times ο Brian Christian, επιστήμονας υπολογιστών και συγγραφέας του «The Alignment Problem», ενός βιβλίου για τις ηθικές ανησυχίες σχετικά με τα AI συστήματα. Είναι σημαντικό να κατανοήσουμε το πώς λειτουργεί η τεχνολογία για να γνωρίζουμε τι ακριβώς πρέπει να κάνουμε με αυτήν.

#CHAT #ΕΛΟΝ_ΜΑΣΚ #ΚΥΒΕΡΝΟΑΣΦΑΛΕΙΑ #ΑΛΤΣΧΑΙΜΕΡ #ΔΗΜΟΣΙΟΓΡΑΦΟΙ #ΤΕΧΝΗ
Keywords
new york times, new york, νέα, health, σημαίνει, σχολεια, microsoft, εταιρεία, fund, capital, security, email, sigma, hugo, times, guardian, jason, york, τελη κυκλοφοριας, αποτελεσματα δημοτικων εκλογων 2010, εκλογες 2010 αποτελεσματα , Καλή Χρονιά, κοινωνικη συμφωνια, η ημέρα της γης, τελη κυκλοφοριας 2014, Παγκόσμιο Κύπελλο Ποδοσφαίρου 2014, τελη κυκλοφοριας 2015, τελη κυκλοφοριας 2016, αξιολογηση, κοινωνια, αποτελεσματα, βημα, εργαλεια, ηθικη, θεμα, περιοδικα, πλαισιο, προγραμμα, φυσικη, capital, email, guardian, microsoft, times, αγορα, αρθρο, ακουστικα, αλτσχαιμερ, απλα, απωλεια, βδομαδα, εβδομαδες, βομβα, γεγονος, γινεται, γλωσσα, διαστημα, δημοσιο, δωσει, δικτυα, ευκολο, ευκολα, ειπε, εβδομαδα, εργα, εξελιξη, εξυπηρετηση, επαγγελματα, ερευνες, ερχεται, εταιρεία, εφαρμογες, τεχνη, τεχνολογια, ζωης, ιδια, ειδος, θεσεις εργασιας, κειμενο, κυπελλο, λογο, μακρια, μοντελα, μορφη, νοημοσυνη, ομαδα, παντα, οδος, ονομα, ουσιαστικα, πηγη, πλατφορμες, προγραμματα, σειρα, σικαγο, σημαδια, υγιεις, φοιτητης, ανηκει, health, security, sigma, ερωτησεις, fund, gpt, hugo, ιατρικα, ιδιαιτερα, jason, κειμενα, λεξεις, μελετη, new york times, new york, ογκο, οργανα, παιχνιδι, σημαίνει, θεσεις, θετικα, υγειας, york
Τυχαία Θέματα