Φόρτωση Text-to-Speech…
Μπορεί η τεχνητή νοημοσύνη να επηρεάσει το αποτέλεσμα εκλογών και σε ποιο βαθμό; Πόσο θωρακισμένη είναι η Ε.Ε. γενικά και η χώρα μας ειδικότερα απέναντι σε υβριδικούς πολέμους, με κυβερνοεπιθέσεις και διασπορά deepfakes, όταν η έννοια της αλήθειας σχετικοποιείται όλο και περισσότερο;
Ο διοικητής της Εθνικής Αρχής Κυβερνοασφάλειας Μιχάλης Μπλέτσας δεν έχει αναστολή να παραδεχτεί ότι δεν υπάρχει αποτελεσματική άμυνα και ότι μοναδική σίγουρη προστασία είναι η κριτική σκέψη. «Καμία χώρα δεν είναι θωρακισμένη και χρειάζεται πανευρωπαϊκό μέτωπο για να αναπτυχθούν σοβαροί μηχανισμοί προστασίας. Η χώρα μας είναι από τις πιο ευάλωτες στην παραπληροφόρηση, γιατί είναι πολύ μεγάλο το ποσοστό των πολιτών που ενημερώνονται αποκλειστικά από τα μέσα κοινωνικής δικτύωσης, αλλά επίσης επειδή το εκπαιδευτικό σύστημα δεν καλλιεργεί κριτική ικανότητα».
Ισχύει ότι σε αφρικανικές χώρες έχει εμφανιστεί ο Τραμπ ή ο Μπάιντεν να υποστηρίζουν, με ήχο και εικόνα, υποψηφίους, όπως επίσης ισχύει ότι πολιτικοί στη Δύση αποδίδουν στην τεχνητή νοημοσύνη πραγματικά γεγονότα για να αποφύγουν να πάρουν θέση. Συνέβη στη Ρουμανία να ακυρωθούν προεδρικές εκλογές (2024) λόγω οργανωμένης ρωσικής παρέμβασης στα social media υπέρ του ακροδεξιού νικητή, που στις δημοσκοπήσεις δεν ξεπερνούσε το 10%. Αλλά ούτε τότε υπήρξε σοβαρή κινητοποίηση σε επίπεδο Ε.Ε. για την πρόληψη ανάλογων φαινομένων, παρόλο που το σύστημα Τραμπ καταγγέλλει ως αντιδημοκρατικό αυτό που συνέβη στο Βουκουρέστι.

«Πιο πειστικά τρικ»
Ο ειδικός γραμματέας Μακροπρόθεσμου Σχεδιασμού Γιάννης Μαστρογεωργίου καθησυχάζει ότι «η τεχνητή νοημοσύνη δεν «κλέβει» μόνη της εκλογές· όμως κάνει αρκετά παράνομα τρικ φθηνότερα, γρηγορότερα και πιο πειστικά». Και εξηγεί: «Πρώτον, παράγει στοχευμένη παραπληροφόρηση και συνθετικά βίντεο που διαχέονται πριν προλάβει να απαντήσει η θεσμική ασφάλεια. Δεύτερον, ενισχύει την κοινωνική μηχανική: καλύτερο phishing, μίμηση φωνής, “δήθεν οδηγίες” προς ψηφοφόρους κ.λπ. Τρίτον, διαβρώνει την εμπιστοσύνη: όταν όλα μοιάζουν πλαστά, ο πολίτης παραιτείται και δεν πιστεύει τίποτε, και αυτό αποτελεί τη νίκη του σκοταδισμού».
Η Συμβουλευτική Eπιτροπή Υψηλού Επιπέδου για την Τεχνητή Νοημοσύνη, η οποία συγκροτήθηκε από τον πρωθυπουργό τον Νοέμβριο του 2023, επεξεργάζεται προτάσεις που θα προωθηθούν από την ελληνική προεδρία της Ε.Ε. (το β΄ εξάμηνο 2027). Υπάρχει, ήδη, καθυστέρηση στην προετοιμασία της Ε.Ε. απέναντι σε απειλές για τη δημοκρατία που δεν είναι μελλοντικές αλλά παρούσες και εξελίσσονται με ιλιγγιώδη ταχύτητα.
Η νομική σύμβουλος στην Ειδική Γραμματεία Μακροπρόθεσμου Σχεδιασμού Βιργινία Κόκιου θυμίζει: «Στις πρόσφατες γαλλικές εκλογές του 2024 κυκλοφόρησαν, και μάλιστα έγιναν viral στο Διαδίκτυο, deepfakes βίντεο νεαρών γυναικών που φέρονταν να είναι μέλη της οικογένειας Λεπέν (ανιψιές της) και προωθούσαν γαλλικά ακροδεξιά κόμματα. Τα πρόσωπα όμως αυτά στην πραγματικότητα δεν υπάρχουν, δημιουργήθηκαν από επεξεργασμένα βίντεο που “εκλάπησαν” από λογαριασμούς γυναικών (influencers) στα κοινωνικά δίκτυα».
Αλλο παράδειγμα: «Στις ΗΠΑ, ένας πολιτικός σύμβουλος έστειλε αυτοματοποιημένες κλήσεις που δημιουργήθηκαν από τεχνητή νοημοσύνη, μιμούμενος τον τέως πρόεδρο Τζο Μπάιντεν, σε πολίτες Δημοκρατικούς του Νιου Χαμσάιρ, δύο ημέρες πριν από τις προεδρικές προκριματικές εκλογές της πολιτείας στις 23 Ιανουαρίου 2024. Οι παραλήπτες άκουσαν μια φωνή που δημιουργήθηκε από τεχνητή νοημοσύνη, παρόμοια με αυτή του Δημοκρατικού προέδρου, να υπαινίσσεται ότι η ψήφος στις προκριματικές εκλογές θα εμπόδιζε τους ψηφοφόρους να ψηφίσουν τον Νοέμβριο».
Στην πραγματικότητα δεν υπάρχει γνώση ως προς το εύρος των ψηφιακών απειλών για την αξιοπιστία της εκλογικής διαδικασίας, διότι η άντληση ποσοτικών στοιχείων για ακαδημαϊκές έρευνες και στατιστική ανάλυση στις πλατφόρμες είναι δύσκολη, στο Tik Tok αδύνατη, ενώ το fact checking είναι πολύ ασθενικό ακόμη.

Ο Μιχ. Μπλέτσας επιμένει πως «η καλύτερη άμυνα είναι η κριτική μας ικανότητα. Τα υπόλοιπα είναι όλα μαζί 10%».
Περισσότερο αισιόδοξος ο Γ. Μαστρογεωργίου: «Η προετοιμασία της άμυνας δεν είναι πανικός, αλλά ετοιμότητα: κέντρο διασταύρωσης φημών, πρωτόκολλο 24ωρης απόκρισης, εκπαίδευση προσωπικού, κυβερνοασφάλεια σε όλη την εκλογική αλυσίδα. Δημοκρατία σημαίνει ανθεκτικοί θεσμοί, όχι τέλειοι άνθρωποι».
Αυτό που κάνει το πρόβλημα εξαιρετικά περίπλοκο είναι τα δυσδιάκριτα όρια μεταξύ καμπάνιας και προπαγάνδας. Οπως τονίζει ο καθηγητής Ψηφιακής Διακυβέρνησης στο Πανεπιστήμιο του Μονάχου Γιάννης Θεοχάρης, «τα πιο πρόσφατα διεθνή ευρήματα (σε περιοδικά όπως το Nature, αλλά και σε reports των Reuters Institute στην Οξφόρδη και Knight Institute στο Georgetown) δείχνουν ότι η γενικευμένη ανησυχία πως η ΑΙ θα “κλέψει” εκλογές ή θα μετακινήσει μαζικά την κοινή γνώμη δεν επιβεβαιώνεται εμπειρικά. Τα deepfakes και η generative AI (όπως επίσης και τα bots, που είχαν υπερπροβληθεί στο παρελθόν) σπάνια αλλάζουν άμεσα τις πολιτικές προτιμήσεις».
Οι πολίτες και οι θεσμοί. «Οι υβριδικές επιθέσεις (κυβερνοεπίθεση, παραπληροφόρηση και σαμποτάζ) κλονίζουν την εμπιστοσύνη των πολιτών στους θεσμούς και πλήττουν το κύρος της αστικής δημοκρατίας, κάτι που κάνει πιο εύφορο το έδαφος για αυταρχικούς ηγέτες».
Ψέματα χωρίς ντροπή
Εκείνο που έχει αλλάξει και συνδέεται με όλα αυτά, όπως εξηγεί ο κ. Μπλέτσας, είναι ότι «δεν υπάρχει ηθικός φραγμός ως προς τη σύνδεση του πολιτικού λόγου με την αλήθεια. Everything goes. Δεν υπάρχει πια ντροπή για τα ψέματα. Εχει κατεδαφιστεί ένα σύστημα ηθικών κανόνων στις ΗΠΑ και ανησυχώ πολύ».
Ανησυχεί, ενώ δεν πιστεύει ότι μπορεί να επηρεαστεί άμεσα το εκλογικό αποτέλεσμα: «Οι υβριδικές επιθέσεις (κυβερνοεπίθεση, παραπληροφόρηση και σαμποτάζ) κλονίζουν την εμπιστοσύνη των πολιτών στους θεσμούς και πλήττουν το κύρος της αστικής δημοκρατίας, κάτι που κάνει πιο εύφορο το έδαφος για αυταρχικούς ηγέτες χωρίς λογοδοσία και θεσμικές ευαισθησίες».
Και στο βάθος η Μόσχα; Ο Μιχ. Μπλέτσας απαντά χωρίς περιστροφές: «Οι Ρώσοι το έχουν πει ανοιχτά, θα φέρουμε τον πόλεμο στην πόρτα σας. Η Ρωσία εκμεταλλεύεται τα όπλα που τους δώσαμε εμείς ως Δύση. Η Κίνα όχι σε τέτοιο βαθμό, γιατί διαφημίζει ότι δεν ανακατεύεται στα εσωτερικά χωρών. Το έχουμε δει στην Πολωνία, στη Δανία, στη Βαλτική. Και στη χώρα μας έχουν γίνει τέτοιες απόπειρες. Θυμάστε ένα βίντεο που έδειχνε τεράστιους αστυνομικούς να σπρώχνουν μικροσκοπικές γιαγιάδες στο κέντρο της Αθήνας με τη βοήθεια της παραγωγικής-γενετικής ΑΙ; Πολλοί συμπολίτες μας το κατάπιαν αμάσητο. Εξαπλώθηκε πολύ γρήγορα το βίντεο, παρόλο που ήταν προφανής η πλαστότητά του».

Πρακτικά, δεν μπορεί να εντοπιστεί ο υπαίτιος της κακόβουλης χρήσης της ΑΙ καθώς χρειάζεται συνεργασία από τις πλατφόρμες, η οποία δεν είναι εύκολη. «Δεν έχουμε πολλά μέσα στη διάθεσή μας. Δεν μπορούμε να κάνουμε πολλά πράγματα. Οπλο μας είναι η σκέψη· να μην υπερισχύει το θυμικό της λογικής», σημειώνει ο κ. Μπλέτσας.
Με την έναρξη της επόμενης σχολικής χρονιάς, θα παρουσιαστεί πιλοτικά, σε περίπου 20 σχολικές τάξεις, η ψηφιακή εφαρμογή d-AI-logue, που προσφέρει καθοδήγηση για ενεργή και με επίγνωση κατανάλωση πληροφορίας στα ψηφιακά μέσα πληροφόρησης και στα μέσα κοινωνικής δικτύωσης. Είναι ένα έργο που συντονίζει το Εθνικό Κέντρο Ερευνας Φυσικών Επιστημών (ΕΚΕΦΕ) «Δημόκριτος», με εταίρους το Εθνικό Κέντρο Κοινωνικών Ερευνών (ΕΚΚΕ), το Ερευνητικό Κέντρο «Αθηνά» και το World Human Forum, υπό την αιγίδα της Ειδικής Γραμματείας Μακροπρόθεσμου Σχεδιασμού. Ο κ. Βαγγέλης Καρκαλέτσης, διευθυντής και πρόεδρος του Δ.Σ. του ΕΚΕΦΕ «Δημόκριτος», υπογραμμίζει ότι «πρόκειται για έναν ψηφιακό βοηθό που κινητοποιεί τον πολίτη ώστε να σκέφτεται κριτικά και να αντιμετωπίζει τις ψευδείς ειδήσεις».
Η Ε.Ε. θεωρεί την παραπληροφόρηση και τη χειραγώγηση της πληροφορίας απειλή για τις δημοκρατικές διαδικασίες και την εμπιστοσύνη στους θεσμούς. Ηδη από το 2023 η Ευρωπαϊκή Ενωση ξεκίνησε την Πρωτοβουλία Ψηφιακής Δημοκρατίας (Digital Democracy Initiative). Η πράξη για την ΑΙ που ψηφίστηκε το 2024 δεν περιέχει συγκεκριμένα άρθρα για τις εκλογές, ωστόσο αναγνωρίζει τα deepfakes και αναφέρει ρητά την υποχρέωση γνωστοποίησης για περιεχόμενο που έχει παραχθεί ή υποστεί χειρισμό τεχνητά (εκτός εάν εξυπηρετεί τη διερεύνηση αξιόποινων πράξεων ή αποτελεί μέρος προφανώς καλλιτεχνικού, δημιουργικού, σατιρικού, μυθοπλαστικού έργου). Επίσης, ένας από τους στόχους της τριάδας προεδρίας Ε.Ε. «Πολωνία – Δανία – Κύπρος» για το 18μηνο (Ιανουάριος 2025 – Ιούνιος 2026) αφορά την καταπολέμηση της παραπληροφόρησης.
Αρκούν αυτά; Και βέβαια όχι. Το αναγνωρίζει ο Γ. Μαστρογεωργίου: «Θέλουμε κανόνες για πολιτική διαφήμιση, υποχρεωτική σήμανση συνθετικού περιεχομένου και ανεξάρτητους ελέγχους. Και αρκετό ψηφιακό εγγραμματισμό: Πριν κάνεις share, σκέψου δύο δευτερόλεπτα. Αυτό είναι το νέο minimum δημοκρατικής αυτοάμυνας».

Υπουλη επίδραση
«Ο πραγματικός κίνδυνος», τονίζει ο Γ. Θεοχάρης, «βρίσκεται στη συστηματική χρήση παραπληροφόρησης από ανθρώπους που αξιοποιούν την ΑΙ ως εργαλείο. Με άλλα λόγια, η τεχνολογία μπορεί να ενισχύσει υπάρχουσες στρατηγικές, αλλά δεν παράγει από μόνη της μαζικά πειστικά αποτελέσματα. Μια εξαιρετικά ενδιαφέρουσα νέα έρευνα δείχνει ότι η ΑΙ μπορεί μεν να επηρεάσει τη δημόσια συζήτηση, ωστόσο δεν πείθει μαζικά ούτε αλλάζει στάσεις από μόνη της».
Συναφής είναι η άποψη του κ. Αντώνη Καλογερόπουλου, αναπληρωτή καθηγητή Επικοινωνίας στο Ελεύθερο Πανεπιστήμιο των Βρυξελλών και ερευνητικού συνεργάτη στο Reuters Institute του Πανεπιστημίου της Οξφόρδης: «Ερευνες δείχνουν ότι οι πηγές πληροφόρησης δεν επηρεάζουν άμεσα την πρόθεση ψήφου, αλλά κυρίως έμμεσα. Το κάνουν καθορίζοντας ποια θέματα κυριαρχούν στη δημόσια συζήτηση. Οταν ένα ζήτημα βρίσκεται ψηλά στην ατζέντα, ενισχύονται τα κόμματα που θεωρούνται πιο ικανά να το αντιμετωπίσουν. Για παράδειγμα, εάν η δημόσια συζήτηση εστιάζεται στη μετανάστευση ή στην υγεία, τότε αποκτούν πλεονέκτημα τα κόμματα που το κοινό πιστεύει ότι μπορούν να λύσουν προβλήματα σε αυτούς τους τομείς. Το ίδιο ισχύει και για το μέρος του κοινού που ενημερώνεται κυρίως από τα μέσα κοινωνικής δικτύωσης».
Το 2024 έγιναν εθνικές εκλογές σε 64 χώρες, που συνολικά αντιπροσωπεύουν περίπου το 49% του παγκόσμιου πληθυσμού. Επειδή συνέπεσαν με τη ραγδαία ανάπτυξη της τεχνητής νοημοσύνης, δημιουργήθηκε ερευνητικό ενδιαφέρον για την επιρροή της στο εκλογικό αποτέλεσμα. Το συμπέρασμα του Allen Lab for Democracy Renovation (Χάρβαρντ) είναι ότι δεν υπάρχει άμεση και καταλυτική επίδραση. Στο πλαίσιο αυτής της έρευνας, ο Nέιτ Πέρσιλι, καθηγητής στη Νομική Σχολή του Στάνφορντ, εξήγησε ότι η ΑΙ επιταχύνει και ενισχύει τους ήδη υπάρχοντες παράγοντες επηρεασμού του εκλογικού αποτελέσματος. Και πιστεύει ότι «ο πανικός για την τεχνητή νοημοσύνη είναι από μόνος του ένα πρόβλημα δημοκρατίας», γιατί «πιο επικίνδυνη από την πίστη σε ψευδείς πληροφορίες είναι η διάβρωση της εμπιστοσύνης στο αληθινό περιεχόμενο».

