Από τη «Σούπερ Κατερίνα» στο ChatGPT: Πού βάζουμε τα όρια της συμβουλευτικής και της παρέας;
Η επίκουρη καθηγήτρια Ανθρωπίνων Δικαιωμάτων και Τεχνολογίας στο Πανεπιστήμιο του Νότιγχαμ, Μαντώ Ραχωβίτσα, με πολυετή διεθνή πορεία σε ερευνητικά κέντρα και πανεπιστήμια, μίλησε στην Ανθή Παζιάνου για τα μεγάλα ερωτήματα που θέτει σήμερα η τεχνητή νοημοσύνη. Από το ChatGPT που χρησιμοποιούν οι έφηβοι μέχρι τα συστήματα αναγνώρισης προσώπου, από τις φούσκες πληροφορίας μέχρι το δικαίωμα στην ιδιωτικότητα, η συζήτηση ανέδειξε την ουσία: η τεχνολογία δεν είναι ποτέ ουδέτερη.
«Πριν λίγα χρόνια δεν θα το πιστεύαμε ποτέ ότι ένα εργαλείο τεχνητής νοημοσύνης θα γινόταν προσωπικός μας βοηθός», σχολίασε η Μαντώ Ραχωβίτσα. Σήμερα, έφηβοι χρησιμοποιούν το ChatGPT για να ζητήσουν συμβουλές για ερωτικές απογοητεύσεις, φοιτητές για να γράψουν εργασίες, ενώ άλλοι για να βρουν τι να απαντήσουν σε έναν φίλο τους.
Όμως, τα πράγματα δεν είναι τόσο απλά. «Το GPT δεν δίνει πάντα ακριβείς πληροφορίες· μπορεί να φτιάξει δικές του πηγές, να δημιουργήσει ανύπαρκτα βιβλία ή να παραπέμψει σε τίτλους που δεν υπάρχουν. Αυτό το κάνει επικίνδυνο όταν χρησιμοποιείται αβασάνιστα», τόνισε.
Όταν η μηχανή γίνεται παρέα
Η συζήτηση έφτασε και σε ένα άλλο πεδίο: τη μοναξιά. Όλο και περισσότεροι άνθρωποι στην Ευρώπη χρησιμοποιούν συστήματα τεχνητής νοημοσύνης ως συντροφιά. «Υπάρχουν ήδη τραγικά περιστατικά, όπου ευάλωτοι χρήστες οδηγήθηκαν σε αυτοκτονία ύστερα από χειριστικές συμβουλές ενός μοντέλου ΑΙ», σημείωσε η Ραχωβίτσα, φέρνοντας ως παράδειγμα την περίπτωση ενός Βέλγου που αυτοκτόνησε μετά από “διάλογο” για την κλιματική κρίση.
«Γι’ αυτό είναι τόσο σημαντική η εκπαίδευση: όχι μόνο στα σχολεία, αλλά και κοινωνικά, ώστε να ξέρουμε πώς χρησιμοποιούμε αυτά τα εργαλεία», τόνισε.
Ο μύθος της αντικειμενικότητας
Ένας από τους πιο διαδεδομένους μύθους είναι ότι η τεχνητή νοημοσύνη είναι αντικειμενική. «Δεν υπάρχει αντικειμενικότητα», ξεκαθαρίζει.
Οι αλγόριθμοι προσαρμόζονται στις απόψεις μας, δημιουργώντας φούσκες πληροφορίας. «Αν ξεκινήσεις να διαβάζεις δημοσιεύματα με μια συγκεκριμένη άποψη, θα αρχίσει να σου εμφανίζει όλο και περισσότερα παρόμοια. Έτσι, ο κόσμος που βλέπεις είναι παραμορφωμένος και μονοδιάστατος».
Αυτό δεν αφορά μόνο το ατομικό επίπεδο: «Τα τελευταία χρόνια είχαμε παραδείγματα όπου η τεχνητή νοημοσύνη κατηύθυνε την κοινή γνώμη σε εκλογές. Μιλάμε πια για χειριστικότητα σε συλλογικό επίπεδο».
Το δικαίωμα στην ιδιωτικότητα
Η Ραχωβίτσα στάθηκε ιδιαίτερα στο δικαίωμα της ιδιωτικότητας, το οποίο συνδέεται άρρηκτα με όλα τα υπόλοιπα δικαιώματα.
«Δεν χρειάζεται να έχεις κάτι να κρύψεις για να θες ιδιωτικότητα. Η ιδιωτικότητα είναι η ανάγκη του καθενός να έχει τον δικό του χώρο και χρόνο. Από το να κλείσεις την πόρτα του δωματίου σου, μέχρι να μιλήσεις με μια φίλη σου χωρίς να ακούει κανείς άλλος. Είναι βασικό δικαίωμα».
Έφερε ως παράδειγμα τις ερωτήσεις που κάνουν χρήστες σε εργαλεία όπως το ChatGPT για εξαιρετικά προσωπικά θέματα, όπως οι αμβλώσεις. Αυτά τα δεδομένα, τόνισε, μένουν πάντα και μπορούν να χρησιμοποιηθούν εναντίον μας ή να καταλήξουν σε διαφημίσεις χειριστικού περιεχομένου.
Αναφέρθηκε επίσης στην εισαγωγή συστημάτων βιομετρικής αναγνώρισης προσώπου από την ελληνική αστυνομία. «Αν ξέρω ότι μια κάμερα θα με καταγράψει σε μια διαδήλωση, μπορεί να αποτραπώ από το να ασκήσω το δικαίωμά μου στη συνάθροιση. Αυτό δείχνει πώς η τεχνολογία μπορεί να επηρεάσει θεμελιώδεις ελευθερίες».
Ασφάλεια ή δικαιώματα; Ένα ψευδοδίλημμα
«Συχνά ακούμε ότι πρέπει να διαλέξουμε: ασφάλεια ή δικαιώματα. Αυτό είναι ένα ψευδοδίλημμα. Η ιστορία έχει δείξει ότι όπου τέθηκαν τέτοια διλήμματα, οδηγηθήκαμε σε σκοτεινούς δρόμους. Η πρόκληση είναι να διασφαλίσουμε ταυτόχρονα και την ασφάλεια και τα δικαιώματα», τόνισε.
Το ίδιο ισχύει και με την «καινοτομία ή ελευθερίες». Για τη Μαντώ, η καινοτομία δεν μπορεί να υπάρξει εις βάρος των δικαιωμάτων. «Χρειαζόμαστε μια σοβαρή δημόσια συζήτηση, θεσμικά και κοινωνικά, για το πώς θα προχωρήσουμε. Δεν είναι υπερβολή ούτε “ανούσιο” να μιλάμε για δικαιώματα· είναι προϋπόθεση για να πάμε μπροστά».
Νομοθεσία και εφαρμογή
Η Ελλάδα, όπως είπε, έχει ήδη από το 2022 νομοθεσία για την τεχνητή νοημοσύνη, δεσμευόμενη και από το ευρωπαϊκό πλαίσιο. «Δεν είναι τέλεια, αλλά ήταν ένα σημαντικό βήμα. Το ζήτημα είναι ότι δεν εφαρμόζεται. Εκεί χρειάζεται κοινωνική και πολιτική πίεση».
🌐 Το μήνυμα που άφησε η Μαντώ Ραχωβίτσα είναι σαφές: Η τεχνολογία τρέχει με απίστευτη ταχύτητα, αλλά τα ανθρώπινα δικαιώματα δεν μπορούν να μείνουν πίσω. Χρειαζόμαστε ενημέρωση, εκπαίδευση και πάνω απ’ όλα δημόσια συζήτηση για το πώς θέλουμε να ζούμε στην ψηφιακή εποχή.
Η Μαντώ Ραχωβίτσα, είναι μέλος της κοινότητας ΚΑΤΙ ΓΙΑ ΜΑΣ, κι έχει μιλήσει για τους αλγόριθμους. Δες αν θες την προσφορά του ΚΑΤΙ ΓΙΑ ΜΑΣ