Πώς η τεχνητή νοημοσύνη θα μπορούσε να αναλάβει τις εκλογές στις ΗΠΑ – και να υπονομεύσει τη δημοκρατία. Θα μπορούσαν οι οργανισμοί να χρησιμοποιήσουν γλωσσικά μοντέλα τεχνητής νοημοσύνης, όπως το ChatGPT, για να ωθήσουν τους ψηφοφόρους να συμπεριφερθούν με συγκεκριμένους τρόπους;

Ο γερουσιαστής Josh Hawley έθεσε αυτή την ερώτηση στον διευθύνοντα σύμβουλο της OpenAI Sam Altman σε ακρόαση της Γερουσίας των ΗΠΑ στις 16 Μαΐου 2023 για την τεχνητή νοημοσύνη. Ο Altman απάντησε ότι όντως ανησυχεί ότι κάποιοι μπορεί να χρησιμοποιούν γλωσσικά μοντέλα για να χειραγωγούν, να πείθουν και να συμμετέχουν σε προσωπικές αλληλεπιδράσεις με τους ψηφοφόρους

Ο Altman δεν διευκρίνισε, αλλά ίσως είχε κατά νου κάτι σαν αυτό το σενάριο. Φανταστείτε ότι σύντομα, οι πολιτικοί τεχνολόγοι αναπτύσσουν μια μηχανή που ονομάζεται Clogger – μια πολιτική εκστρατεία σε ένα μαύρο κουτί. Ο Clogger επιδιώκει αμείλικτα μόνο έναν στόχο: να μεγιστοποιήσει τις πιθανότητες να επικρατήσει ο υποψήφιός του – η εκστρατεία που αγοράζει τις υπηρεσίες της Clogger Inc.

Ενώ πλατφόρμες όπως το Facebook, το Twitter και το YouTube χρησιμοποιούν μορφές τεχνητής νοημοσύνης για να κάνουν τους χρήστες να περνούν περισσότερο χρόνο στους ιστότοπούς τους, η τεχνητή νοημοσύνη του Clogger θα έχει έναν διαφορετικό στόχο: να αλλάξει την εκλογική συμπεριφορά των ανθρώπων.

Πώς θα λειτουργούσε το Clogger

Ως πολιτικός επιστήμονας και νομικός που μελετάμε τη διασταύρωση της τεχνολογίας και της δημοκρατίας, πιστεύουμε ότι κάτι σαν το Clogger θα μπορούσε να χρησιμοποιήσει την αυτοματοποίηση για να αυξήσει δραματικά την κλίμακα και ενδεχομένως την αποτελεσματικότητα των τεχνικών χειραγώγησης της συμπεριφοράς και μικροστόχευσης που χρησιμοποιούν οι πολιτικές εκστρατείες από τις αρχές της δεκαετίας του 2000. Ακριβώς όπως οι διαφημιστές χρησιμοποιούν το ιστορικό περιήγησής σας και το ιστορικό των κοινωνικών μέσων δικτύωσης για να στοχεύουν μεμονωμένα τις εμπορικές και πολιτικές διαφημίσεις τώρα, το Clogger θα έδινε προσοχή σε εσάς – και σε εκατοντάδες εκατομμύρια άλλους ψηφοφόρους – μεμονωμένα.

Θα προσέφερε τρεις προόδους σε σχέση με την τρέχουσα σύγχρονη αλγοριθμική χειραγώγηση της συμπεριφοράς. Πρώτον, το γλωσσικό του μοντέλο θα δημιουργούσε μηνύματα – κείμενα, μέσα κοινωνικής δικτύωσης και ηλεκτρονικό ταχυδρομείο, ίσως συμπεριλαμβανομένων εικόνων και βίντεο – προσαρμοσμένα σε εσάς προσωπικά. Ενώ οι διαφημιστές τοποθετούν στρατηγικά έναν σχετικά μικρό αριθμό διαφημίσεων, γλωσσικά μοντέλα όπως το ChatGPT μπορούν να δημιουργήσουν αμέτρητα μοναδικά μηνύματα για εσάς προσωπικά – και εκατομμύρια για άλλους – κατά τη διάρκεια μιας εκστρατείας.

 

Δεύτερον, το Clogger θα χρησιμοποιήσει μια τεχνική που ονομάζεται ενισχυτική μάθηση για να δημιουργήσει μια σειρά από μηνύματα που θα γίνονται όλο και πιο πιθανά να αλλάξουν την ψήφο σας. Η ενισχυτική μάθηση είναι μια προσέγγιση μηχανικής μάθησης, δοκιμής και λάθους, κατά την οποία ο υπολογιστής αναλαμβάνει ενέργειες και λαμβάνει ανατροφοδότηση σχετικά με το ποιες λειτουργούν καλύτερα, προκειμένου να μάθει πώς να επιτύχει έναν στόχο. Οι μηχανές που μπορούν να παίξουν Go, σκάκι και πολλά βιντεοπαιχνίδια καλύτερα από οποιονδήποτε άνθρωπο έχουν χρησιμοποιήσει την ενισχυτική μάθηση.

Πώς λειτουργεί η ενισχυτική μάθηση.

Τρίτον, κατά τη διάρκεια μιας εκστρατείας, τα μηνύματα του Clogger θα μπορούσαν να εξελίσσονται ώστε να λαμβάνουν υπόψη τις αντιδράσεις σας στις προηγούμενες αποστολές της μηχανής και ό,τι έχει μάθει για την αλλαγή της γνώμης των άλλων. Ο Clogger θα είναι σε θέση να διεξάγει δυναμικές “συνομιλίες” με εσάς – και εκατομμύρια άλλους ανθρώπους – με την πάροδο του χρόνου. Τα μηνύματα του Clogger θα είναι παρόμοια με τις διαφημίσεις που σας ακολουθούν σε διάφορους ιστότοπους και μέσα κοινωνικής δικτύωσης.
Η φύση της τεχνητής νοημοσύνης

Τρία ακόμη χαρακτηριστικά – ή σφάλματα – αξίζει να σημειωθούν.

Πρώτον, τα μηνύματα που στέλνει ο Clogger μπορεί να έχουν ή να μην έχουν πολιτικό περιεχόμενο. Ο μοναδικός στόχος της μηχανής είναι να μεγιστοποιήσει το μερίδιο ψήφων και πιθανότατα θα επινοήσει στρατηγικές για την επίτευξη αυτού του στόχου που κανένας άνθρωπος που διεξάγει εκστρατεία δεν θα είχε σκεφτεί.

Μια πιθανότητα είναι να στέλνει στους πιθανούς αντίπαλους ψηφοφόρους πληροφορίες για μη πολιτικά πάθη που έχουν στον αθλητισμό ή την ψυχαγωγία για να θάψει τα πολιτικά μηνύματα που λαμβάνουν. Μια άλλη πιθανότητα είναι η αποστολή απωθητικών μηνυμάτων – για παράδειγμα διαφημίσεις ακράτειας – χρονικά συμπίπτοντας με τα μηνύματα των αντιπάλων. Και μια άλλη είναι η χειραγώγηση των ομάδων φίλων των ψηφοφόρων στα μέσα κοινωνικής δικτύωσης για να δοθεί η αίσθηση ότι οι κοινωνικοί τους κύκλοι υποστηρίζουν τον υποψήφιό της.

Δεύτερον, ο Clogger δεν ενδιαφέρεται για την αλήθεια. Πράγματι, δεν έχει τρόπο να γνωρίζει τι είναι αληθές και τι ψευδές. Οι “ψευδαισθήσεις” του γλωσσικού μοντέλου δεν αποτελούν πρόβλημα για αυτό το μηχάνημα, επειδή ο στόχος του είναι να αλλάξει την ψήφο σας και όχι να παρέχει ακριβείς πληροφορίες.

Τρίτον, επειδή πρόκειται για ένα είδος τεχνητής νοημοσύνης τύπου “μαύρου κουτιού”, οι άνθρωποι δεν θα έχουν τρόπο να γνωρίζουν ποιες στρατηγικές χρησιμοποιεί.
Ο τομέας της εξηγήσιμης τεχνητής νοημοσύνης έχει ως στόχο να ανοίξει το μαύρο κουτί πολλών μοντέλων μηχανικής μάθησης, ώστε οι άνθρωποι να μπορούν να καταλάβουν πώς λειτουργούν.

Clogocracy
Εάν η προεδρική εκστρατεία των Ρεπουμπλικάνων χρησιμοποιήσει το Clogger το 2024, η εκστρατεία των Δημοκρατικών θα αναγκαστεί πιθανότατα να απαντήσει με τον ίδιο τρόπο, ίσως με μια παρόμοια μηχανή. Να το ονομάσουμε Dogger. Αν οι υπεύθυνοι των εκστρατειών πίστευαν ότι αυτές οι μηχανές ήταν αποτελεσματικές, η προεδρική αναμέτρηση θα μπορούσε κάλλιστα να καταλήξει στο Clogger εναντίον Dogger, και νικητής θα ήταν ο πελάτης της πιο αποτελεσματικής μηχανής.

Οι πολιτικοί επιστήμονες και οι ειδήμονες θα είχαν πολλά να πουν σχετικά με το γιατί επικράτησε η μία ή η άλλη τεχνητή νοημοσύνη, αλλά πιθανότατα κανείς δεν θα γνώριζε πραγματικά. Ο πρόεδρος θα έχει εκλεγεί όχι επειδή οι πολιτικές του προτάσεις ή οι πολιτικές του ιδέες έπεισαν περισσότερους Αμερικανούς, αλλά επειδή είχε την πιο αποτελεσματική ΤΝ. Το περιεχόμενο που κέρδισε την ημέρα θα προήλθε από μια ΤΝ που επικεντρώθηκε αποκλειστικά στη νίκη, χωρίς δικές της πολιτικές ιδέες, και όχι από υποψηφίους ή κόμματα.
Υπό αυτή την πολύ σημαντική έννοια, μια μηχανή θα είχε κερδίσει τις εκλογές αντί για ένα άτομο. Οι εκλογές δεν θα ήταν πλέον δημοκρατικές, παρόλο που όλες οι συνήθεις δραστηριότητες της δημοκρατίας – οι ομιλίες, οι διαφημίσεις, τα μηνύματα, η ψηφοφορία και η καταμέτρηση των ψήφων – θα είχαν λάβει χώρα.

Ο εκλεγμένος με τεχνητή νοημοσύνη πρόεδρος θα μπορούσε τότε να ακολουθήσει έναν από τους δύο τρόπους. Θα μπορούσε να χρησιμοποιήσει τον μανδύα της εκλογής για να ακολουθήσει πολιτικές του Ρεπουμπλικανικού ή του Δημοκρατικού κόμματος. Αλλά επειδή οι ιδέες του κόμματος μπορεί να είχαν ελάχιστη σχέση με το γιατί οι άνθρωποι ψήφισαν με τον τρόπο που ψήφισαν – ο Clogger και ο Dogger δεν ενδιαφέρονται για τις πολιτικές απόψεις – οι ενέργειες του προέδρου δεν θα αντανακλούσαν απαραίτητα τη βούληση των ψηφοφόρων. Οι ψηφοφόροι θα χειραγωγούνταν από την ΤΝ αντί να επιλέγουν ελεύθερα τους πολιτικούς ηγέτες και τις πολιτικές τους.

Ένας άλλος δρόμος είναι ο πρόεδρος να ακολουθήσει τα μηνύματα, τις συμπεριφορές και τις πολιτικές που η μηχανή προβλέπει ότι θα μεγιστοποιήσουν τις πιθανότητες επανεκλογής του. Σε αυτό το μονοπάτι, ο πρόεδρος δεν θα είχε καμία συγκεκριμένη πλατφόρμα ή ατζέντα πέραν της διατήρησης της εξουσίας. Οι ενέργειες του προέδρου, καθοδηγούμενες από τον Clogger, θα ήταν αυτές που είναι πιθανότερο να χειραγωγήσουν τους ψηφοφόρους παρά να εξυπηρετήσουν τα γνήσια συμφέροντά τους ή ακόμη και την ιδεολογία του ίδιου του προέδρου.

Αποφυγή της Clogocracy
Θα ήταν δυνατόν να αποφευχθεί η χειραγώγηση των εκλογών με τεχνητή νοημοσύνη, αν οι υποψήφιοι, οι εκστρατείες και οι σύμβουλοι αποσύρονταν από τη χρήση της πολιτικής τεχνητής νοημοσύνης; Πιστεύουμε ότι αυτό είναι απίθανο. Αν αναπτυχθούν πολιτικά αποτελεσματικά μαύρα κουτιά, ο πειρασμός να τα χρησιμοποιήσουν θα ήταν σχεδόν ακαταμάχητος. Πράγματι, οι πολιτικοί σύμβουλοι θα μπορούσαν κάλλιστα να θεωρήσουν ότι η χρήση αυτών των εργαλείων απαιτείται από την επαγγελματική τους ευθύνη να βοηθήσουν τους υποψηφίους τους να κερδίσουν. Και μόλις ένας υποψήφιος χρησιμοποιήσει ένα τέτοιο αποτελεσματικό εργαλείο, οι αντίπαλοι δύσκολα θα μπορούσαν να αντισταθούν αφοπλίζοντας μονομερώς.

Η ενισχυμένη προστασία της ιδιωτικής ζωής θα βοηθούσε. Το Clogger θα εξαρτιόταν από την πρόσβαση σε τεράστιες ποσότητες προσωπικών δεδομένων προκειμένου να στοχεύσει άτομα, να δημιουργήσει μηνύματα προσαρμοσμένα για να τα πείσει ή να τα χειραγωγήσει, και να τα παρακολουθεί και να τα επαναπροσανατολίζει κατά τη διάρκεια μιας εκστρατείας. Κάθε κομμάτι αυτής της πληροφορίας που οι εταιρείες ή οι υπεύθυνοι χάραξης πολιτικής αρνούνται στη μηχανή θα την καθιστούσε λιγότερο αποτελεσματική.

Οι ισχυροί νόμοι για την προστασία των δεδομένων θα μπορούσαν να βοηθήσουν στην απομάκρυνση της τεχνητής νοημοσύνης από τη χειραγώγηση.

Μια άλλη λύση βρίσκεται στις εκλογικές επιτροπές. Θα μπορούσαν να απαγορεύσουν ή να ρυθμίσουν αυστηρά αυτές τις μηχανές. Υπάρχει μια έντονη συζήτηση σχετικά με το κατά πόσον μπορεί να ρυθμιστεί ένας τέτοιος λόγος “αντιγραφής”, ακόμη και αν είναι πολιτικός στη φύση του. Η ακραία παράδοση της ελευθερίας του λόγου στις ΗΠΑ οδηγεί πολλούς κορυφαίους ακαδημαϊκούς να λένε ότι δεν μπορεί.

Αλλά δεν υπάρχει κανένας λόγος να επεκτείνουμε αυτόματα την προστασία της Πρώτης Τροποποίησης στο προϊόν αυτών των μηχανών. Το σμερικανικό έθνος θα μπορούσε κάλλιστα να επιλέξει να παραχωρήσει δικαιώματα στις μηχανές, αλλά αυτή θα πρέπει να είναι μια απόφαση που θα βασίζεται στις προκλήσεις του σήμερα, όχι στην άστοχη υπόθεση ότι οι απόψεις του James Madison το 1789 είχαν σκοπό να εφαρμοστούν στην τεχνητή νοημοσύνη!

Οι ρυθμιστικές αρχές της Ευρωπαϊκής Ένωσης κινούνται προς αυτή την κατεύθυνση. Οι υπεύθυνοι χάραξης πολιτικής αναθεώρησαν το σχέδιο του Ευρωπαϊκού Κοινοβουλίου για τον νόμο περί τεχνητής νοημοσύνης, ώστε να χαρακτηρίσουν τα “συστήματα τεχνητής νοημοσύνης που επηρεάζουν τους ψηφοφόρους σε προεκλογικές εκστρατείες” ως “υψηλού κινδύνου” και υπόκεινται σε ρυθμιστικό έλεγχο.

Ένα συνταγματικά ασφαλέστερο, αν και μικρότερο, βήμα, που έχει ήδη υιοθετηθεί εν μέρει από τις ευρωπαϊκές ρυθμιστικές αρχές του διαδικτύου και στην Καλιφόρνια, είναι να απαγορευτεί στα bots να παρουσιάζονται ως άνθρωποι. Για παράδειγμα, η ρύθμιση θα μπορούσε να απαιτεί τα μηνύματα των εκστρατειών να συνοδεύονται από αποποίηση ευθύνης όταν το περιεχόμενο που περιέχουν παράγεται από μηχανές και όχι από ανθρώπους.

Αυτό θα ήταν σαν τις απαιτήσεις αποποίησης ευθυνών για τη διαφήμιση – “Πληρώθηκε από την Επιτροπή Sam Jones για το Κογκρέσο” – αλλά τροποποιημένο ώστε να αντικατοπτρίζει την προέλευσή του από την Τεχνητή Νοημοσύνη: “Αυτή η διαφήμιση που δημιουργήθηκε από την Τεχνητή Νοημοσύνη πληρώθηκε από την Επιτροπή Sam Jones για το Κογκρέσο”.

Μια ισχυρότερη εκδοχή θα μπορούσε να απαιτεί: “Αυτό το μήνυμα που δημιουργήθηκε από την Τεχνητή Νοημοσύνη σας αποστέλλεται από την Επιτροπή του Σαμ Τζόουνς για το Κογκρέσο, επειδή ο Clogger προέβλεψε ότι αυτό θα αυξήσει τις πιθανότητές σας να ψηφίσετε τον Σαμ Τζόουνς κατά 0,0002%”. Τουλάχιστον, πιστεύουμε ότι οι ψηφοφόροι δικαιούνται να γνωρίζουν πότε τους μιλάει ένα ρομπότ και θα πρέπει να γνωρίζουν και το γιατί.

Η δυνατότητα ενός συστήματος, όπως το Clogger, δείχνει ότι η πορεία προς τη συλλογική αποδυνάμωση των ανθρώπων μπορεί να μην απαιτεί κάποια υπεράνθρωπη τεχνητή γενική νοημοσύνη. Ίσως απλώς να απαιτούνται υπεραισιόδοξοι ακτιβιστές και σύμβουλοι που διαθέτουν ισχυρά νέα εργαλεία που μπορούν να πατήσουν αποτελεσματικά τα πολλά κουμπιά εκατομμυρίων ανθρώπων.

theconversation.com