Λίλιαν Μήτρου: «Όταν κλικάρετε “συμφωνώ”, χρειάζεστε 25 μέρες για να διαβάσετε πού συμφωνείτε»

Η καθηγήτρια του Τμήματος Μηχανικών Πληροφοριακών και Επικοινωνιακών Συστημάτων του Πανεπιστημίου Αιγαίου μιλάει στη LiFO για το τι πραγματικά κάνει ο «αλγόριθμος» στη ζωή μας και πόσο κινδυνεύουν τα δικαιώματά μας απ’ όσα το αυτοματοποιημένο κράτος και οι ιδιωτικοί φορείς γνωρίζουν για εμάς.

Χριστίνα Γαλανοπούλου

H τεχνητή νοημοσύνη υπάρχει εδώ και 70 και πλέον χρόνια. Από τότε που ο Turing και άλλοι επιστήμονες ήδη τη δεκαετία του ’50 άρχισαν να ερευνούν αν ένας αλγόριθμος μπορεί να λειτουργήσει και να κάνει πράγματα με τρόπο που δεν θα τον ξεχωρίσεις από άνθρωπο. Από τότε μιλάμε στην ουσία για την έννοια του ΑΙ.

Ακόμα και αν δεν γνωρίζουμε επαρκώς και με τεχνικούς όρους την αδιαμφισβήτητη εισβολή του αλγόριθμου στη ζωή μας, την αντιλαμβανόμαστε πολλές φορές κατά τη διάρκεια της καθημερινότητάς μας: πληκτρολογούμε λίγα γράμματα από αυτό που θέλουμε να αναζητήσουμε στο Google και –ω του θαύματος– κάτω από το πεδίο αναζήτησης αναγράφεται ολόκληρη η λέξη ή ακόμα και η φράση.

Συζητάμε με συναδέλφους στο γραφείο για τον επόμενο προορισμό των διακοπών μας και την επόμενη φορά που θα επιχειρήσουμε να ανοίξουμε το gmail μας για να τσεκάρουμε το ηλεκτρονικό ταχυδρομείο «παίζει» διαφήμιση από το συγκεκριμένο παραθεριστικό θέρετρο…

Και ενώ προσπαθούμε να καταλάβουμε το «πώς» και το «γιατί» αυτής της αυτοματοποίησης, κάποιο πρόγραμμα τεχνητής νοημοσύνης μπορεί πανεύκολα να επεξεργαστεί μια φωτογραφία μας σαν να βρεθήκαμε σε αυτό το μέρος, ενώ, για την ώρα, δεν έχουμε πατήσει ποτέ εκεί. Τα αποδίδουμε όλα στον αλγόριθμο, όμως τι είναι αυτό; Πόσο ελεύθερο του έχουμε δώσει στη ζωή μας και πού αρχίζει η κατάσταση να γίνεται εφιαλτική; Υπάρχουν νόμοι και δικλείδες προστασίας της ιδιωτικότητάς μας; Μπορεί ο αλγόριθμος να είναι δίκαιος; Να είναι ηθικός; Να δικάζει; Πόσο μπορεί να εμπλέκεται στη ζωή μας και πόσο κιδυνεύουν τα δικαιώματά μας από κράτη, οργανισμούς και ιδιωτικούς φορείς που γνωρίζουν τα πάντα ή, έστω, πάρα πολλά για εμάς;

Όλα τα παραπάνω απαντώνται έξοχα μέσα από την έρευνα των Πανεπιστημιακών Εκδόσεων Κρήτης υπό τον τίτλο «Μπορεί ο αλγόριθμος…», του οποίου την επιστημονική επιμέλεια υπογράφει η καθηγήτρια του Τμήματος Μηχανικών Πληροφοριακών και Επικοινωνιακών Συστημάτων του Πανεπιστημίου Αιγαίου, Λίλιαν Μήτρου.

Όλοι μπορούμε να βρεθούμε εκτεθειμένοι. Για μένα το κρίσιμο εν προκειμένω δεν είναι αν έγινε χρήση ενός συστήματος τεχνητής νοημοσύνης. Το βασικό είναι να γνωρίζει αυτός που θα το δει ότι πρόκειται για κατασκευή και όχι για πραγματικότητα. Δηλαδή να έχει κάποιος τη γνώση για το τι ακριβώς είναι αυτό που του προβάλλεται.
Το βιβλίο είναι γραμμένο από νομικούς (Σπύρος Τάσσης, Ηλιάνα Κωστή, Απόστολος Βόρρας, Βασίλης Καρκατζούνης) που ναι μεν κατανοούν τα τεχνολογικά άλματα, ωστόσο δεν ξεχνούν ότι πολύ συχνά η αξία της δημοκρατίας και των θεμελιωδών δικαιωμάτων μας μπορεί είτε να βρίσκεται σε κίνδυνο είτε να αγνοούμε πώς εμείς οι ίδιοι ως ενεργοί πολίτες μπορούμε να την προστατεύσουμε.

Ας πούμε, ένα κορυφαίο παράδειγμα όλης αυτής της συζήτησης για τον αλγόριθμο και την τεχνητή νοημοσύνη είναι αυτό που πραγματικά συμβαίνει όταν ένας ιστότοπος ζητά –και καλά τη συναίνεσή μας– για τη χρήση cookies: πού πραγματικά λέμε «ναι» και πού «όχι» και ποιος στ’ αλήθεια διαβάζει όλα αυτά τα κατεβατά που (μας) εξηγούν πού ακριβώς συναινέσαμε;

Για όλα αυτά και άλλα ενδιαφέροντα συζητήσαμε με την κ. Μήτρου σε μια απόπειρα να κατανοήσουμε πόσα πραγματικά γνωρίζουμε για την πολυσυζητημένη τεχνητή νοημοσύνη, πότε μπορεί να λειτουργεί εις βάρος μας και πώς η αλματώδης εξέλιξή της μπορεί όντως να είναι κάτι καλό για τη ζωή μας.

— Αν έχω καταλάβει καλά από τη διάρθρωση των κεφαλαίων του βιβλίου, η ουσία βρίσκεται στο ότι ο «αλγόριθμος μπορεί» προς τη σωστή κατεύθυνση μόνο αν υπάρχει ξεκάθαρο ρυθμιστικό πλαίσιο. Σωστά;
Καταρχάς, να διευκρινίσουμε ότι τον όρο «αλγόριθμο» τον χρησιμοποιούμε για να προσωποποιήσουμε τη συζήτηση για τις δυνατότητες και τα όρια της τεχνητής νοημοσύνης.

Αναφορικά με την ερώτησή σας, νομίζω ότι εκφράζετε αυτό ακριβώς που επιδιώκαμε, να επιχειρήσουμε μια απάντηση στο ερώτημα εάν «μπορεί ο αλγόριθμος» να είναι δίκαιος, ηθικός, διαφανής, να δικάζει και να διοικεί εκκινώντας από την πεποίθηση ότι πρέπει να επωφεληθούμε από τις θετικές πλευρές της τεχνητής νοημοσύνης, όπως και κάθε τεχνολογίας, αλλά ταυτόχρονα θα πρέπει να είμαστε σε εγρήγορση για να εντοπίζουμε εγκαίρως τα προβλήματα που η χρήση αλγορίθμων και συστημάτων τεχνητής νοημοσύνης θα δημιουργήσει στην κοινωνία και στα δικαιώματα.

Ανάλογα με την αξιολόγηση των κινδύνων και τον εντοπισμό των προβλημάτων θα πρέπει να φροντίσουμε, μέσω της θέσπισης κανόνων, να προσπαθήσουμε –το τονίζω το «προσπαθήσουμε»– να περιορίσουμε τις αρνητικές συνέπειες ή ακόμα και να τις αποκλείσουμε.

— Με αυτό που λέτε μοιραία έρχομαι στο επόμενο ερώτημα που λέει ότι εάν ισχύουν τα παραπάνω, το σύστημα, το κράτος, η πολιτεία, θα πρέπει να είναι σε μόνιμη εγρήγορση με μια νομοπαρασκευστική επιτροπή και ορδές τεχνικών επί ποδός, για να προλαβαίνει το πρόβλημα που δημιουργείται από κάθε αλλαγή. Γνωρίζοντας τις ταχύτητες του διαδικτύου από τη μία και το ελληνικό slow justice system από την άλλη, κατά πόσο κάτι τέτοιο είναι εφικτό;
Με τα ζητήματα της σχέσης Δικαίου και Τεχνολογίας ασχολούμαι τα τελευταία τριάντα χρόνια. Το μόνιμο πρόβλημα που αντιμετωπίζουμε είναι ότι οι τεχνολογίες, εν προκειμένω οι τεχνολογίες πληροφορικής και επικοινωνιών, εξελίσσονται με γεωμετρικούς, εκθετικούς ρυθμούς, ενώ το δίκαιο, τόσο ως προς την παραγωγή κανόνων δικαίου όσο και ως προς την απονομή δικαιοσύνης, είναι μια κατεξοχήν αργή διαδικασία.

Έχουμε συχνά μπροστά μας ένα πολύ κλασικό δίλημμα, το δίλημμα του Collingridge, όπως αναφέρουμε και στο βιβλίο. Τι λέει αυτό το δίλημμα; Έχεις μια τεχνολογία, η οποία αρχίζει να εμφανίζεται, να εισδύει στις ζωές των ανθρώπων, να διαδίδεται και εν τέλει να χρησιμοποιείται ευρέως.

Ωστόσο, στα πρώτα στάδια δεν έχεις ακόμα επίγνωση της έκτασης και των συνεπειών αυτής της τεχνολογίας, οπότε αναμένεις. Η βασική σκέψη είναι «να επέμβω άμεσα; Μήπως τώρα, πριν εξελιχθεί το φαινόμενο;». Συχνά η απάντηση είναι αρνητική γιατί αφενός πράγματι δεν είναι πάντα ευχερές να διαγνώσεις προβλήματα και παθογένειες εγκαίρως και αφετέρου μια τέτοια απόφαση μπορεί να θεωρηθεί όχι ακριβώς προνοητική αλλά παρεμβατική και περιοριστική ως προς τα δικαιώματα.

Το έχουμε ζήσει αυτό με το διαδίκτυο όπου μια παρέμβαση θα κρινόταν, ιδίως στις πρώτες φάσεις της ανάπτυξής του, ως λογοκριτική και αυταρχική. Μία άλλη επιφύλαξη που καθιστά διστακτικό τον νομοθέτη είναι ότι μπορεί η παρέμβασή του να περιορίζει την καινοτομία, την πρόοδο, την ευημερία, οπότε αναγκαστικά αναμένει για να δει την εξέλιξη.

Όταν, όμως, μια τέτοια τεχνολογία –και θεωρώ ότι η τεχνητή νοημοσύνη είναι ένα τέτοιο πολύ χαρακτηριστικό παράδειγμα– καταλήγει να διεισδύσει, ενίοτε καταλυτικά, στην κοινωνία και στην οικονομία, στη ζωή των ανθρώπων, στην ιδιωτική και δημόσια σφαίρα, τότε φτάνουμε στο εξής πρόβλημα: είναι πια πολύ αργά για ρυθμίσεις. Το δίλημμα, λοιπόν, είναι «πολύ νωρίς» ή «πολύ αργά»; Και φυσικά, πάντα ξέρεις ότι πολύ συχνά η ρύθμιση αντιστοιχεί σε μια προηγούμενη φάση τεχνολογίας.

Για τον λόγο αυτό κατά την κατάρτιση ενός κανονιστικού πλαισίου –νομοπαρασκευαστικά τόσο στην Ελλάδα όσο και σε επίπεδο Ευρωπαϊκής Ένωσης– προσανατολιζόμαστε στη λεγόμενη «τεχνολογικά ουδέτερη ρύθμιση». Αυτό όμως είναι μια φενάκη, διότι όσο και να προσπαθήσεις να κάνεις κάτι που θα καλύπτει και το επόμενο στάδιο, υπάρχουν μια σειρά από προκλήσεις που δύσκολα αντιμετωπίζονται. Γιατί, πρώτον, έχεις αναπόφευκτα κατά νου την τεχνολογία του καιρού σου, δεν μπορείς να ξεφύγεις από αυτό. Δεύτερον, γιατί όταν επιδιώκεις την ουδέτερη ρύθμιση, αυτή που θα αντέξει στη δοκιμασία του χρόνου και την εξέλιξη της τεχνολογίας, καταλήγεις να διατυπώνεις κάτι με τρόπο ευρύ και αόριστο, ενδεχομένως χρήσιμο, ευέλικτο και επιδεχόμενο ερμηνείες που θα προσαρμόζονται στις ραγδαίες αλλαγές.

Αλλά μετά το πρόβλημα μετατίθεται σε αυτόν που θα κληθεί να το εφαρμόσει. Αυτός όμως είναι που ενδεχομένως δεν θα ξέρει τι ακριβώς πρέπει να κάνει, καθώς θα πρέπει να συμμορφωθεί χωρίς να έχει πάντα σαφή οριοθέτηση του τι επιτρέπεται και τι απαγορεύεται. Ως προς τη ρύθμιση της τεχνητής νοημοσύνης, η Ευρωπαϊκή Ένωση προσπαθεί να περιορίσει αυτόν τον κίνδυνο. Στην Πράξη για την τεχνητή νοημοσύνη, ακριβέστερα το σχέδιο κανονισμού που είναι τώρα υπό συζήτηση, θέτει κάποιες «κόκκινες γραμμές» π.χ. με την απαγόρευση της χρήσης συστημάτων κοινωνικής βαθμονόμησης, αυτού που ξέρουμε και ως socialscoring.

Ως προς τα υπόλοιπα, και επειδή δεν μπορούμε να έχουμε πάντα σαφείς κανόνες, εισάγονται διαδικασίες «εκτίμησης αντικτύπου» ή υποχρεώσεις διαφάνειας και δημιουργίας μητρώων συστημάτων τεχνητής νοημοσύνης, ώστε να υπάρχει λογοδοσία και να καθίσταται δυνατός ο έλεγχος από τις αρμόδιες Αρχές, όταν οριστούν. Ωστόσο, πιο πολύ, αν θέλετε, όλα αυτά φαίνεται να είναι διαδικαστικά παρά ουσιαστικά.

— Γίνεται τεράστια συζήτηση για την κατασκευασμένη με τεχνητή νοημοσύνη φωτογραφία του διασώστη της ΕΜΑΚ στους σεισμούς της Τουρκίας. Μπερδεύτηκε πολύς κόσμος με αυτή την εικόνα, ακόμα και πολιτικοί ή δημοσιογράφοι. Πού στεκόμαστε αναφορικά με την «κατασκευή» τέτοιων εικόνων;
Κοιτάξτε, ακόμα κι εγώ που ισχυρίζομαι ότι έχω γνώση και είμαι προσεκτική, έχω πέσει θύμα αυτού που λέμε fake news ή fake αναρτήσεων, προσπαθώντας να βοηθήσω με την κοινοποίηση μιας ανάρτησης με αίτημα την παροχή βοήθειας. Έκτοτε προσπαθώ να είμαι πάρα πολύ προσεκτική στο τι κοινοποιώ, αναμεταδίδω, διαδίδω. Θέλω να πω ότι όλοι μπορούμε να βρεθούμε εκτεθειμένοι.

Για μένα το κρίσιμο εν προκειμένω δεν είναι αν έγινε χρήση ενός συστήματος τεχνητής νοημοσύνης. Το βασικό είναι να γνωρίζει αυτός που θα το δει ότι πρόκειται για κατασκευή και όχι για πραγματικότητα. Δηλαδή να έχει κάποιος τη γνώση για το τι ακριβώς είναι αυτό που του προβάλλεται. Αν εγώ γνωρίζω ότι είναι μια παραποιημένη εικόνα, μπορώ να το αποδεχτώ και να το αξιολογήσω αντιστοίχως. Δεν μπορώ να αποδεχτώ την παραπλάνηση του αποδέκτη του μηνύματος για να τον φορτίσω συναισθηματικά ή για να δημιουργήσω τεχνηέντως «κλίμα».

— Ναι, αλλά γνωρίζοντας ότι η τεχνητή νοημοσύνη μπορεί να «τοποθετεί» ανθρώπους σε μέρη που δεν υπήρξαν ποτέ, δεν υπάρχει ένα ηθικό ζήτημα εδώ;
Ο αντίλογος θα μπορούσε να λέει ότι αφού υπάρχει κάποιος που εξαρχής δηλώνει, που καθιστά σαφές ότι η εικόνα είναι κατασκευή, πρόκειται για άσκηση της ελευθερίας της δημιουργίας, της ελευθερίας της έκφρασης. Το να τον ποδηγετήσεις και να τον περιορίσεις χάριν της «προστασίας του κοινού» μπορεί να παραβιάζει αυτά τα κρίσιμα για την αυτονομία του προσώπου και την ανάπτυξη της προσωπικότητας δικαιώματα.

Εκείνο που απασχολεί εμένα είναι η παραπληροφόρηση, ιδίως υπό την εκδοχή της λεγόμενης disinformation, δηλαδή της σκόπιμης και κεκαλυμμένης διάδοσης ψευδών ειδήσεων προκειμένου να επηρεαστεί η κοινή γνώμη. Με απασχολεί το πώς αντιμετωπίζεται από το Δίκαιο και κυρίως πόσο ευχερές είναι να αντιμετωπιστεί.

Το κρίσιμο, λοιπόν, και εδώ είναι πώς οριοθετείς τι επιτρέπεται και τι όχι. Η οριοθέτηση δεν είναι εύκολη. Εν γένει η οριοθέτηση του νόμιμου, του επιτρεπτού και του παράνομου, ανεπίτρεπτου στον ψηφιακό κόσμο φαίνεται δυσχερέστερη απ’ ό,τι στην εξωδικτυακή ζωή.

Πολύ συχνά λέω στους φοιτητές μου ότι θα ξεκινάμε με μια βασική αρχή: «Ό,τι απαγορεύεται offline, απαγορεύεται και online». Δηλαδή πρέπει να δοκιμάζεις να μεταφέρεις την ίδια συνθήκη στην πραγματική ζωή και «εκεί» να σκεφτείς αν θα συμπεριφερόσουν έτσι, αν θα ντρεπόσουν να πράξεις ό,τι θα έπραττες στον δικτυακό κόσμο ή θα είχες σοβαρές ηθικές αναστολές είτε γιατί απαγορεύεται είτε γιατί εικάζεις ότι κάνεις κάτι πραγματικά κακό, απαράδεκτο. Ακόμη και αν δεν ξέρεις τον κανόνα που το απαγορεύει, η κοινωνική σου συνείδηση αποφαίνεται ότι αυτό δεν είναι αποδεκτό. Τότε απλώς δεν το κάνεις.

— Να, ένας γενικός, ωστόσο αρκετά ξεκάθαρος κανόνας, λοιπόν…
Ε, ναι. Είναι εκεί που αναρωτιέσαι «επιτρέπεται να βρίσω, να συκοφαντήσω, να προσβάλω τον άλλον;», «αν ήμασταν πρόσωπο με πρόσωπο, θα συμπεριφερόμουν, όπως συμπεριφέρομαι πίσω από το πληκτρολόγιο» και την ανωνυμία που αυτό συχνά μου προσφέρει.

— Πόσο εύκολο και πόσο ανέφικτο ταυτόχρονα!
Ξέρετε γιατί; Διότι η τεχνολογία μάς εθίζει και σε μια αποστασιοποίηση που μας δίνει την αίσθηση ότι όλα επιτρέπονται. Σου δίνει την αίσθηση ότι κάτι είναι αποδεκτό, ενώ δεν είναι. Θα αναφέρω κάτι άλλο που δεν είναι ακριβώς το ίδιο με τη συζήτηση που έχουμε αλλά αντικατοπτρίζει αυτό το όριο μεταξύ πραγματικής ζωής και διαδικτύου. Ας πούμε, θα πηγαίνατε ποτέ σε ένα βιβλιοπωλείο να πάρετε ένα βιβλίο, χωρίς να το πληρώσετε, στη συνέχεια να το φωτοτυπήσετε και μετά –στην καλύτερη των περιπτώσεων– να το επιστρέψετε; Όχι στην πραγματική ζωή. Το κάνουμε κάθε μέρα σε ψηφιακό περιβάλλον, ενώ στο εξωδικτυακό δεν θα διανοούμασταν καν. Στον ψηφιακό κόσμο η ευχέρεια με την οποία δρούμε έχει δημιουργήσει σοβαρές παρανοήσεις.

— Μα αυτή δεν ήταν και η μαγεία του διαδικτύου; Ότι όλα φαντάζουν προσιτά, ότι έχουμε άπειρη πρόσβαση στην πληροφορία που πολλές φορές είναι και απολύτως δωρεάν;
Ακριβώς. Με μια βασική διαφορά σε σχέση με αυτό που αναφέρετε. Μια αλήθεια που πολλοί αγνοούμε είναι ότι δεν είναι δωρεάν! Στην πραγματικότητα πληρώνουμε κανονικότατα σχεδόν για καθετί που κλικάρουμε, για κάθε πληροφορία και ιστότοπο και παιχνίδι στο οποίο αποκτούμε πρόσβαση. Συνήθως, λοιπόν, πληρώνουμε με τα προσωπικά δεδομένα μας.

— Σωστά. Την οποία συναίνεση για τα cookies συνήθως την αποδεχόμαστε χωρίς πολλά πολλά και χωρίς πολύ ψάξιμο, γιατί όλα αυτά τα κατεβατά περί «νομίμων συνεργατών» συνήθως δεν τα διαβάζει ποτέ κανείς την ώρα που βιάζεται ή προχωρά σε κάποια συναλλαγή που δεν μπορεί να διεκπεραιώσει αλλιώς, οπότε για ποια συναίνεση μιλάμε;
Ακριβώς. Αυτό που περιγράφετε είναι αυτό που κάνει ένας μέσος χρήστης του Διαδικτύου που εν συντομία το λέμε «just click submit» και έχει ενδιαφέρον εδώ το πώς αντιμετωπίζουμε τη συγκατάθεση.

Ξέρετε, η «συγκατάθεση» έχει προβληθεί πάρα πολύ ως εκείνη η λύση που όλα μπορεί να τα θεραπεύσει, γιατί σε τελευταία ανάλυση εσύ αποφασίζεις. Όμως για «τι» ακριβώς αποφασίζεις και με ποια γνώση, ποιες προϋποθέσεις συγκατατίθεσαι. Ακριβώς αυτήν τη συζήτηση έχουμε με τους υποψήφιους διδάκτορές μου και σε ένα ερευνητικό έργο το οποίο το ονομάσαμε Obama και το οποίο αφορά τη συμπεριφορική, στοχευμένη, εξατομικευμένη διαφήμιση, τις προϋποθέσεις και τις συνέπειές της.

Ένα από τα ζητήματα που απασχολούν πολύ είναι η υφαρπαγή της συγκατάθεσης, όπου εσύ έχεις την ψευδαίσθηση ότι γνωρίζεις ότι έχεις συμφωνήσει και αυτοί που παρέχουν την (όποια) υπηρεσία έχουν την ψευδαίσθηση ότι είναι απολύτως καλυμμένοι. Ότι όλο αυτό συμβαίνει σε ένα πλαίσιο νομιμότητας ή έστω νομιμοφάνειας. Όμως η αλήθεια είναι ότι καταρχάς σχεδόν ποτέ δεν έχεις διαβάσει τους όρους χρήσης.

Η πληροφόρηση του χρήστη συνιστά μια πολύ ενδιαφέρουσα πτυχή: διατυπώνεται έντονα, και ορθώς, η απαίτηση να δίνεται στον χρήστη πλήρης εικόνα αναφορικά με το σε τι ακριβώς δίνει τη συγκατάθεσή του. Αποτέλεσμα: ατελείωτα κείμενα, σελίδες επί σελίδων. Ο G. Buttarelli, που είχε διατελέσει Ευρωπαίος Επίτροπος Προστασίας Δεδομένων, είχε υπολογίσει ότι απαιτούνται 25 ημέρες για να διαβάσουμε όλα τα κείμενα ενημέρωσης που αντιστοιχούν στις «συγκαταθέσεις» που δίνουμε. Και ας υποθέσουμε ότι τα διαβάζουμε; Τι πραγματικά καταλαβαίνουμε απ’ όλες αυτές τις λεπτομέρειες;

Ακόμα και ο πιο ειδικευμένος, προσεκτικός χρήστης πολλές φορές αναρωτιέται σε τι ακριβώς παρείχε τη συναίνεσή του. Υπάρχουν και οι λεγόμενες «γκρίζες ζώνες», τα dark patterns, τα σκοτεινά μοτίβα, που σε κατευθύνουν προς μια επιλογή που νομίζεις ότι είναι και δική σου!
Εκεί καταλήγουμε στο ότι η πολλή πληροφόρηση παύει να συνιστά πληροφορία αλλά ένα είδος παγίδευσης του προσώπου υπό το κάλυμμα της εκτενούς ενημέρωσης. Η τάση, λοιπόν, είναι το «συμφωνώ σε όλα».

Πρέπει να σας πω ότι υπάρχει συζήτηση στην Ευρωπαϊκή Ένωση και προτάσεις ώστε να μην επιτρέπεται το profiling των ανθρώπων με βάση στο τι έχουν δώσει τη συγκατάθεσή τους, ή πού έχουν πλοηγηθεί, ή ποια πληροφορία έχουν αναζητήσει. Ακριβέστερα, να μην επιτρέπεται η λεγόμενη «συμπεριφορική στοχευμένη διαφήμιση» ανάλογα με την κατηγορία ή την ομάδα-στόχο στην οποία έχουν καταταχθεί, π.χ. «η συγκεκριμένη χρήστρια (ακόμη και αν δεν είναι πάντα προφανής η ταυτότητα) ενδιαφέρεται «για δίαιτες» ή για «η γιόγκα για κυρίες άνω των 50».

Οπότε προκύπτει το εξατομικευμένο προφίλ και οι διαφημιζόμενοι και διαφημιστές απευθύνουν εξατομικευμένη διαφήμιση προκειμένου να δελεάσουν τον υποψήφιο αγοραστή/χρήστη. Η συζήτηση, λοιπόν, για το εάν και σε ποια έκταση πρέπει να ρυθμιστεί αυτό γίνεται ακριβώς γιατί συχνά πρόκειται για μια συγκατάθεση-παγίδα.

Η συζήτηση για τα cookies που επισημάνατε είναι πολύ παλιά. Το συζητάμε και το έχουμε ρυθμίσει στην Ελλάδα με τον νόμο 3471 ήδη από το 2006 σε μεταφορά Οδηγίας από το 2002: η αποδοχή και η εγκατάσταση cookies και οποιουδήποτε –μην τρομάξετε με τη λέξη– κατασκοπευτικού λογισμικού, γιατί για spyware μιλάμε, προϋποθέτει ενημέρωση και συγκατάθεση. Πώς επιδιώκεται και πώς δίνεται αυτή η συγκατάθεση;

Ακόμα και ο πιο ειδικευμένος, προσεκτικός χρήστης πολλές φορές αναρωτιέται σε τι ακριβώς παρείχε τη συναίνεσή του. Υπάρχουν και οι λεγόμενες «γκρίζες ζώνες», τα dark patterns, τα σκοτεινά μοτίβα, που σε κατευθύνουν προς μια επιλογή που νομίζεις ότι είναι και δική σου! Μερικές φορές, ακόμα και το λεκτικό, που υποτίθεται πως όσοι ασχολούνται με την επικοινωνία το επιμελούνται, παίζει ρόλο. Εκείνο το «εντάξει, το ‘πιασα!» που εμφανίζεται όταν μια φόρμα σάς ενημερώνει για τα περί της συγκατάθεσης είναι ένας τρόπος για να δημιουργηθεί κλίμα αποδοχής και συγκατάθεσης.

Ολόκληρη η συνέντευξη στη Lifo.gr