Ανησυχίες για τέτοιες
δυνητικές παραβιάσεις
του απορρήτου αποτελούν
σήμερα κορυφαίο θέμα για
πολλούς, καθώς η
δημοφιλία των chatbot
δημιουργικής Τεχνητής
Νοημοσύνης (generative
AI) κερδίζει έδαφος. Το
μεγάλο ερώτημα εδώ
είναι: Είναι ασφαλές να
μοιράζεται κάποιος
προσωπικές πληροφορίες
με αυτά τα chatbot;
Η σύντομη απάντηση είναι
ότι υπάρχει πάντα ο
κίνδυνος οι πληροφορίες
που μοιράζεσαι να
δημοσιοποιηθούν με
κάποιον τρόπο. Αλλά
υπάρχουν τρόποι να
περιοριστεί ο κίνδυνος
αυτός.
Για να κατανοήσουμε τις
ανησυχίες αυτές είναι
βοηθητικό να σκεφτούμε
τον τρόπο με τον οποίο
«εκπαιδεύονται» αυτά τα
ψηφιακά εργαλεία – το
πώς τροφοδοτούνται
αρχικά με τεράστιες
ποσότητες πληροφοριών
από το διαδίκτυο ή άλλες
πηγές και πώς μπορούν να
συνεχίζουν να
συγκεντρώνουν
πληροφορίες από τη
διάδρασή τους με
χρήστες, ώστε δυνητικά
να γίνουν ευφυέστερα και
πιο ακριβή.
Ως αποτέλεσμα, όταν
ρωτάς ένα διαλογικό
ρομπότ τεχνητής
νοημοσύνης, η απάντησή
του βασίζεται εν μέρει
σε παλιότερο υλικό από
την εποχή που δεν
υπήρχαν κανόνες γύρω από
την χρήση των δεδομένων
στο διαδίκτυο και τo
προσωπικό απόρρητο.
Ακόμη και το υλικό που
προέρχεται από πιο
πρόσφατες πηγές είναι
γεμάτο από προσωπικές
πληροφορίες σκορπισμένες
στο διαδίκτυο.
Αυτό αφήνει πολλές
πιθανότητες οι
προσωπικές πληροφορίες
να έχουν ενσωματωθεί στο
εκπαιδευτικό υλικό των
διάφορων chatbot
δημιουργικής τεχνητής
νοημοσύνης – πληροφορίες
που θα μπορούσαν να
εμφανιστούν αθέλητα στη
συζήτηση κάποιου άλλου
με ένα chatbot ή να
χακαριστούν και να
αποκαλυφθούν εσκεμμένα
από κακόβουλους χρήστες,
μέσω δόλιων προτροπών ή
ερωτήσεων.
«Ξέρουμε ότι είναι
εκπαιδευμένα με βάση
έναν τεράστιο όγκο
πληροφοριών που μπορεί
να περιέχει ευαίσθητα
δεδομένα – και μάλλον
τελικά όντως περιέχει»,
λέει ο Ramayya Krishman,
επικεφαλής του Block
Center for Technology
and Society και
κοσμήτορας στο κολέγιο
Πληροφοριακών Συστημάτων
και Δημόσιας Πολιτικής
Heinz του πανεπιστημίου
Carnegie Mellon.
Ένα μεγάλο πρόβλημα,
λέει ο Krishman είναι
ότι κανείς δεν έχει
κάνει έναν ανεξάρτητο
έλεγχο για να δει ποια
δεδομένα
χρησιμοποιούνται στην
εκπαίδευση των chatbot.
«Πολλά από τα στοιχεία
που έχουμε για το
πρόβλημα προέρχονται από
επιστήμονες που
παραβιάζουν τα μέτρα
ασφάλειας και δείχνουν
ότι το εκπαιδευτικό
υλικό εμπεριέχει
προσωπικά δεδομένα»,
λέει. «Γνωρίζω σίγουρα
παραβιάσεις που
αποδεικνύουν ότι
υπάρχουν ευαίσθητα
δεδομένα στα
εκπαιδευτικά μοντέλα».
Επιπλέον, προσθέτει ο
καθηγητής, ένα εργαλείο
τεχνητής νοημοσύνης,
αφού δημιουργηθεί, σε
γενικές γραμμές
εξακολουθεί να
εκπαιδεύεται μέσα από τη
διάδραση με τους
χρήστες, απορροφώντας
και αποθηκεύοντας
οποιαδήποτε πληροφορία
του δίνουν.
Εκτός αυτού, σε κάποιες
περιπτώσεις, εργαζόμενοι
σε εταιρίες ανάπτυξης
τέτοιων προγραμμάτων
διαβάζουν ορισμένες από
τις συζητήσεις των
χρηστών με τα chatbot.
Αυτό γίνεται εν μέρει
προκειμένου να
εντοπίσουν και να
αποτρέψουν ανάρμοστη
συμπεριφορά και να
συμβάλουν στην ακρίβεια
και τον ποιοτικό έλεγχο
των μοντέλων, λένε
ειδικοί, καθώς και για
να αποφασίσουν ποιο
υποσύνολο συνομιλιών
θέλουν οι εταιρίες να
χρησιμοποιήσει η τεχνητή
νοημοσύνη για την
εκπαίδευσή της.
Συμβαίνουν διάφορα
Οι ανησυχίες για τα
προσωπικά δεδομένα δεν
είναι θεωρητικές. Έχουν
αναφερθεί περιπτώσεις
όπου εμπιστευτικές
πληροφορίες
γνωστοποιήθηκαν ακούσια
σε χρήστες. Τον
περασμένο Μάρτιο η
OpenAI αποκάλυψε ένα
ευάλωτο σημείο το οποίο
επέτρεπε σε κάποιους
χρήστες του ChatGPT να
δουν τους τίτλους
συζητήσεων άλλων χρηστών
με το ψηφιακό εργαλείο,
ενώ ίσως εκτέθηκαν
δημόσια για μικρό
χρονικό διάστημα και
στοιχεία πληρωμών
κάποιων χρηστών, όπως
ηλεκτρονικές
διευθύνσεις, τα
τελευταία τέσσερα ψηφία
αριθμών πιστωτικών
καρτών και οι
ημερομηνίες λήξης τους.
Αυτό ήταν αποτέλεσμα
μιας δυσλειτουργίας σε
κάποιο λογισμικό
ανοικτού κώδικα (που
σημαίνει ότι ο κώδικας
είναι ελεύθερος σε όλους
να τον δουν, να τον
τροποποιήσουν και να τον
χρησιμοποιήσουν) που
χρησιμοποιήθηκε στην
εκπαίδευση του
εργαλείου.
Τα chatbot είναι επίσης
ευάλωτα και σε
σκόπιμες επιθέσεις. Για
παράδειγμα, κάποιοι
ερευνητές πρόσφατα
ανακάλυψαν εύκολους
τρόπους να προσπεράσουν
τα συστήματα ασφαλείας
και να φέρουν στο φως
προσωπικές πληροφορίες,
μεταξύ των οποίων και
email, οι οποίες είχαν
συγκεντρωθεί μέσω
μεγάλων γλωσσικών
μοντέλων (large language
models – LLM).
Το τρωτό σημείο
«επιδιορθώθηκε άμεσα»,
σημειώνει ο Krishman.
«Αλλά το θέμα είναι, ότι
αυτά τα συστήματα
λογισμικού τεχνητής
νοημοσύνης είναι σύνθετα
και έχουν χτιστεί πάνω
σε άλλα λογισμικά,
ορισμένα από τα οποία
είναι ανοιχτού κώδικα
και έχουν τρωτά σημεία
τα οποία μπορεί κάποιος
να εκμεταλλευτεί».
Παρόμοια τρωτά σημεία
είναι εγγενή σε μεγάλα
γλωσσικά μοντέλα, λέει η
Irina Raicu, επικεφαλής
του προγράμματος
διαδικτυακής ηθικής στο
Κέντρο Εφαρμοσμένης
Ηθικής Markkula του
Πανεπιστημίου της Σάντα
Κλάρα.
Οι ανησυχίες σχετικά με
την ασφάλεια των
δεδομένων είναι τόσο
μεγάλες ώστε αρκετές
εταιρίες έχουν
περιορίσει ή απαγορεύσει
τη χρήση chatbot
τεχνητής νοημοσύνης από
τους υπαλλήλους τους στη
δουλειά. «Αν οι μεγάλες
επιχειρήσεις ανησυχούν
για την ασφάλεια των
πληροφοριών τους, αν δεν
είναι βέβαιες για το τι
συμβαίνει με τα δεδομένα
τους, αυτό μας λέει ότι
θα πρέπει να είμαστε
προσεκτικοί όταν
μοιραζόμαστε οτιδήποτε
προσωπικό», λέει η
Raicu.
Δεν υπάρχουν και πολλά
που μπορούν να γίνουν
για ό,τι περιλαμβάνεται
ήδη στα μοντέλα chatbot,
λέει η ίδια, «αλλά γιατί
να ρισκάρεις να
δημοσιευτεί κάποια
προσωπική σου
πληροφορία, εισάγοντας
στο μοντέλο νέα στοιχεία
σαν αυτά;».
Απλώς μην το κάνετε
Οι δημιουργοί των
chatbot έχουν κάνει
ορισμένα βήματα για να
προστατέψουν τα
προσωπικά δεδομένα των
χρηστών. Για παράδειγμα,
οι χρήστες μπορούν να
απενεργοποιήσουν την
δυνατότητα του ChatGTP
να αποθηκεύει το
ιστορικό της συζήτησής
τους επ’ αόριστον, μέσω
ενός πολύ ορατού
κουμπιού στην αρχική του
σελίδα. Αυτό δεν παρέχει
εξασφαλισμένη προστασία
απέναντι στους χάκερς –η
ιστοσελίδα λέει ότι θα
αποθηκεύσει για 30
ημέρες τις νέες
συνομιλίες των χρηστών
που κάνουν αυτή την
επιλογή– αλλά δηλώνει
ρητώς ότι οι συζητήσεις
δεν θα χρησιμοποιηθούν
στην εκπαίδευση του
μοντέλου.
Το Bard απαιτεί από τους
χρήστες του να
συνδέονται στο
Bard.Google.com, και στη
συνέχεια να ακολουθούν
κάποια βήματα για να
διαγράψουν όλη τη
δραστηριότητα
συζητήσεων, ως
προεπιλογή. Οι χρήστες
του Bing μπορούν να
ανοίξουν την ιστοσελίδα
του chatbot, να δουν το
ιστορικό αναζητήσεών
τους στη δεξιά πλευρά
της σελίδας και μετά να
διαγράψουν όποιες
συζητήσεις θέλουν,
εξηγεί εκπρόσωπος της
Microsoft. «Ωστόσο, προς
το παρόν οι χρήστες δεν
μπορούν να
απενεργοποιήσουν το
ιστορικό των
συζητήσεων», ανέφερε.
Ωστόσο, ο καλύτερος
τρόπος για να
προστατεύσουν οι
καταναλωτές τους εαυτούς
τους, λένε οι ειδικοί,
είναι να αποφεύγουν να
γνωστοποιούν προσωπικές
τους πληροφορίες σε ένα
εργαλείο δημιουργικής
τεχνητής νοημοσύνης και
να έχουν το νου τους για
ορισμένα προειδοποιητικά
σημεία, όταν συνομιλούν
με οποιαδήποτε εφαρμογή
τεχνητής νοημοσύνης.
Κάποια από αυτά τα
προειδοποιητικά σημεία
αφορούν και τη χρήση
chatbot που δεν
διαθέτουν κάποια
ειδοποίηση σχετικά με
την προστασία του
απορρήτου. «Κάτι τέτοιο
σου λέει ότι η ελάχιστη
απαραίτητη διαχείριση
δεν είναι όσο ώριμη θα
έπρεπε», λέει ο
Dominique Shelton
Leipzig, δικηγόρος
ειδικός στην ασφάλεια
προσωπικών δεδομένων και
την κυβερνοασφάλεια στην
εταιρία νομικών
συμβούλων Mayer Brown.
Άλλο προειδοποιητικό
σημείο αποτελούν οι
τυχόν απαιτήσεις του
chatbot για παροχή
περισσότερων προσωπικών
πληροφοριών από όσες
είναι λογικά αναγκαίες.
«Κάποιες φορές για να
μπεις σε κάποιον
λογαριασμό πρέπει να
δώσεις τον αριθμό του
λογαριασμού σου ή ένα
password, και να
απαντήσεις σε προσωπικές
ερωτήσεις, και αυτό
είναι σύνηθες», λέει η
Shelton Leipzig. «Το να
σας ζητούν να δώσετε τον
αριθμό κοινωνικής
ασφάλισης είναι άλλο
πράγμα. Μην το κάνετε».
Η ίδια λέει επίσης ότι
δεν είναι σώφρον να
συζητάς οτιδήποτε
προσωπικό με ένα
διαλογικό ρομπότ
τεχνητής νοημοσύνης για
το οποίο δεν έχεις
ξανακούσει, μια που η
διαχείριση όλου του
συστήματος ίσως να
γίνεται κακόβουλα.
Η Raicu του
Πανεπιστημίου της Σάντα
Κλάρα προειδοποιεί να
μην εισάγουμε σε chatbot
γενικής χρήσης
συγκεκριμένες
πληροφορίες για την
κατάσταση της υγείας μας
ή για τα οικονομικά μας,
μια και οι περισσότερες
εταιρίες chatbot έχουν
ξεκάθαρο στους όρους
χρήσης τους ότι
υπάλληλοί τους
ενδεχομένως διαβάζουν
ορισμένες από τις
συνομιλίες. «Αξίζει τον
κίνδυνο να κυκλοφορήσουν
οι προσωπικές σας
πληροφορίες για μια
απάντηση του chatbot που
μπορεί να είναι και
ανακριβής; Μάλλον όχι»,
λέει η Raicu.
Ο Krishnan, του Carnegie
Mellon, επικαλούμενος
τον κίνδυνο των χάκερ,
προειδοποιεί να
σκεφτόμαστε δύο φορές
προτού χρησιμοποιήσουμε
τη λειτουργία του Google
Bard που επιτρέπει στο
συγκεκριμένο εργαλείο
την ανάγνωση και
επεξεργασία όλων των
email μας, ώστε να
κατανοήσει το ύφος και
τον τόνο της γραφής μας.
Τελικά, για ό,τι
εισάγουμε σε ένα chatbot
απαιτείται να κάνουμε
έναν υπολογισμό
κινδύνου-οφέλους και το
επίπεδο όπου αισθάνεται
ο καθένας ασφαλής θα
είναι διαφορετικό.
Ωστόσο, λένε οι ειδικοί,
θα πρέπει τουλάχιστον να
ελέγχουμε δύο φορές τους
όρους χρήσης και την
πολιτική απορρήτου ενός
chatbot για να
καταλάβουμε πώς θα
χρησιμοποιηθούν τα
δεδομένα μας.
«Ευτυχώς προς το παρόν
και σε ό,τι αφορά το
περιβάλλον των chatbot
δεν είμαστε στο χείλος
της καταστροφής», λέει η
Shelton Leipzig. «Οι
καταξιωμένες εταιρίες
δημιουργικής τεχνητής
νοημοσύνης κάνουν βήματα
για να προστατεύσουν
τους χρήστες». Και πάλι,
επισημαίνει, να είστε
πάντα προσεκτικοί προτού
μοιραστείτε ευαίσθητες
πληροφορίες με ένα
διαλογικό ρομπότ.
Η Heidi
Mitchell είναι
δημοσιογράφος στο Σικάγο
και το Λονδίνο. Μπορείτε
να επικοινωνήσετε μαζί
της στο reports@wsj.com.
Πηγή: Wall Street
Journal |