Πού να πάω διακοπές; Τι να φάω σήμερα; Ποιο βιβλίο / ταινία να επιλέξω; Οι νέες εφαρμογές τεχνητής νοημοσύνης όπως το ChatGPT φαίνεται πως έχουν μια απάντηση για όλα. Ή σχεδόν για όλα. Μπορούν όμως να προβλέψουν το βασικότερο ερώτημα του δημοκρατικού πολιτεύματος, δηλαδή το τι θα ψηφίσουν οι διάφορες δημογραφικές ομάδες στις επομενες εκλογές; Και πόσο πιθανό είναι οι μελλοντικοί πολιτικοί δημοσκόποι να ρωτούν την τεχνητή νοημοσύνη αντί για πραγματικούς ανθρώπους σχετικά με τις πολιτικές τους απόψεις και την πρόθεση ψήφου τους;
Προκειμένου να απαντήσουν στα παραπάνω ερωτήματα, ερευνητές στους τομείς της πολιτικής επικοινωνίας και της επιστήμης των υπολογιστών στο πανεπιστήμιο Brigham Young «ένωσαν» τις δυνάμεις τους και δημιούργησαν «προσωπικότητες τεχνητής νοημοσύνης», στις οποίες προσέδωσαν συγκεκριμένα χαρακτηριστικά όσον αφορά τη φυλή, την ηλικία, την ιδεολογία και τη θρησκεία. Στη συνέχεια τους ζήτησαν να απαντήσουν τι θα ψήφιζαν στις προεδρικές εκλογές των ΗΠΑ το 2012, το 2016 και το 2020.
«Ουσιαστικά περάσαμε ένα σύνολο οδηγιών στις εφαρμογές τεχνητής νοημοσύνης για να τους ζητήσουμε να μπουν στη νοοτροπία ανθρώπων με διαφορετικό υπόβαθρο. Πήραμε δηλαδή τα δημογραφικά χαρακτηριστικά πραγματικών ερωτηθέντων σε πραγματικές έρευνες, τα «δώσαμε» στα AI bots και στη συνέχεια ζητήσαμε από αυτά να απαντήσουν με βάση αυτά τα χαρακτηριστικά. Οι ερωτήσεις που κάναμε προέρχονταν από διάφορες έρευνες που πραγματοποιήθηκαν στις Ηνωμένες Πολιτείες σε διάφορες χρονικές στιγμές. Τέλος, συγκρίναμε τις απαντήσεις των ανθρώπων με τις απαντήσεις των εργαλείων τεχνητής νοημοσύνης», εξηγεί μιλώντας στην «Κ» ο επίκουρος καθηγητής Πολιτικών Επιστημών στο Πανεπιστήμιο Brigham Young, Ethan Busby, ο οποίος ειδικεύεται στην πολιτική ψυχολογία, τον εξτρεμισμό, την κοινή γνώμη, τη φυλετική και εθνοτική πολιτική και τις ποσοτικές μεθόδους.
«Ακριβείς προσομοιώσεις της ανθρώπινης συμπεριφοράς»
Οι απαντήσεις που έδωσαν τα AI bots τους έφεραν προ εκπλήξεως. Οι «τεχνητές προσωπικότητες» είχαν απαντήσει σε πολλές ερωτήσεις ό,τι και οι πραγματικοί άνθρωποι.
«Η έρευνα διαπιστώνει ότι τουλάχιστον στον τομέα της πολιτικής επιστήμης, τα γλωσσικά μοντέλα είναι σε θέση να κάνουν κάποιες ακριβείς προσομοιώσεις της ανθρώπινης συμπεριφοράς. Αυτό είναι ιδιαίτερα ενδιαφέρον δεδομένου ότι τα γλωσσικά μοντέλα δεν εκπαιδεύτηκαν ειδικά για την πολιτική επιστήμη. Απλώς εκπαιδεύτηκαν σε μια ευρεία ποικιλία δεδομένων που συλλέχθηκαν από το διαδίκτυο», τονίζει σχολιάζοντας τα συμπεράσματα της έρευνας ο David Wingate, επίκουρος Καθηγητής στο τμήμα Επιστήμης Υπολογιστών του Πανεπιστημίου Brigham Young, ο οποίος έχει επιτελέσει μεταδιδακτορικός συνεργάτης στο MIT.
Ωστόσο, παρότι οι «τεχνητές προσωπικότητες» απάντησαν σε αρκετές ερωτήσεις ό,τι απάντησαν και οι πραγματικοί ψηφοφόροι σχετικά με τις προηγούμενες εκλογές, αυτό δεν σημαίνει πως μπορούν να προβλέψουν με ακρίβεια μία μεμονωμένη πρόθεση ψήφου.
Αστάθμητοι παράγοντες
«Οι λόγοι που ένα AI bot δεν μπορεί να προβλέψει με ακρίβεια τι θα ψηφίσει ένας πολίτης είναι κυρίως δύο. Πρώτα απ’ όλα, τα δεδομένα που χρησιμοποιήθηκαν για την εκπαίδευση του μοντέλου είναι ξεπερασμένα, οπότε το μοντέλο δεν «γνωρίζει» τα τρέχοντα πολιτικά γεγονότα. Δεύτερον, είναι δύσκολο να προβλέψει τι θα ψήφιζαν συγκεκριμένες ομάδες ανθρώπων, όπως οι ανεξάρτητοι ή οι αναποφάσιστοι, οι οποίοι συχνά επηρεάζονται διαφορετικά σε κάθε εκλογική αναμέτρηση», αναφέρει ο David Wingate.
Μαζί του συμφωνεί και ο Ethan Busby, επισημαίνοντας πως η τεχνητή νοημοσύνη δεν μπορεί να προβλέψει τον τρόπο με το οποίο ένα συγκεκριμένο άτομο θα ψηφίσει ή θα σκεφτεί, αλλά μπορεί να προβλέψει αρκετά καλά «προς τα πού κλίνουν» διαφορετικές κοινωνικές ομάδες.
AI στην πολιτική επικοινωνία
Το γεγονός αυτό ανοίγει μοιραία τη συζήτηση για μια πιθανή μελλοντική χρήση των AI bots στις δημοσκοπήσεις – ειδικά σε μια περίοδο που φθίνει η συμμετοχή των πολιτών στα ερωτηματολόγια κοινής γνώμης – αλλά και η αξιοποίηση των εργαλείων τεχνητής νοημοσύνης στην πολιτική επικοινωνία.
«Πιστεύω ότι η τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για να μας βοηθήσει να σκεφτούμε ποιες ομάδες ανθρώπων έχουν πιο ευέλικτες στάσεις ή είναι πιο ανοιχτές στην «πειθώ» ή θα μπορούσαν να κινητοποιηθούν ευκολότερα για να ψηφίσουν. Επίσης, τα AI bots μπορούσαν να κάνουν διάφορες εκτιμήσεις για ορισμένες από αυτές τις ομάδες», επισημαίνει σχετικά ο Ethan Busby.
Επίσης, λαμβάνοντας υπόψιν το μεγάλο κόστος μίας δημοσκόπησης, αλλά και το μεγάλο ποσοστό της δημοσκοπικής αστοχίας (σ.σ. όπως έγινε στις ελληνικές εκλογές του 2015), η ιδέα να στραφεί ένας πολιτικός ή ένα κόμμα στα AI bots, εφόσον αυτά αντικατοπτρίζουν με σχετική ακρίβεια τις πολιτικές απόψεις και τις προθέσεις ψήφου για συγκεκριμένες ομάδες ανθρώπων, ενδεχομένως να είναι αρκετά ελκυστική.
Ηθικά ερωτήματα
Σε κάθε περίπτωση, τα πρώτα αποτελέσματα μίας έρευνας με τέτοια θεματολογία «βρίσκει» του ερευνητές διχασμένους, καθώς όσο συναρπαστική μπορεί να μοιάζει αρχικά η προσομοίωση ανθρώπων μέσω των γλωσσικών μοντέλων, η δυνατότητα αυτή μπορεί να χρησιμοποιηθεί και με κακόβουλους τρόπους.
«Αρχικά πρέπει να συζητήσουμε, ως κοινότητα, ποιες είναι οι ηθικές προϋποθέσεις για τέτοιες προσομοιώσεις. Βλέπουμε ότι μπορούμε να χρησιμοποιήσουμε την τεχνητή νοημοσύνη για να πείσουμε καλύτερα τους ανθρώπους. Αυτό, ενδεχομένως, μπορεί να γίνει για καλό σκοπό – όπως παραδείγματος χάριν για να βοηθήσουμε τους ανθρώπους να γίνουν λιγότερο ρατσιστές. Μπορεί όμως να γίνει και για κακό σκοπό – όπως για να τους ριζοσπαστικοποιήσουμε», αναφέρει ο David Wingate.
Από την πλευρά του ο Ethan Busby επισημαίνει ότι υπάρχουν ήδη πολλές οργανώσεις και χώρες που χρησιμοποιούν τέτοια εργαλεία για κακόβουλους σκοπούς. «Οι ερευνητές θα πρέπει να χρησιμοποιήσουν την τεχνητή νοημοσύνη για την καταπολέμηση της παραπληροφόρησης, τη μείωση του διχασμού, την προώθηση της κατανόησης μεταξύ των ανθρώπων και όχι για την παραπλάνησή τους με ανήθικους τρόπους», καταλήγει ο ίδιος.
Ακολουθήστε το kathimerini.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο kathimerini.gr