|
Για να
είμαστε σαφείς, το
γεγονός ότι οι άνθρωποι
πλησιάζουν πολύ τα
chatbot τεχνητής
νοημοσύνης τους είναι
καλά τεκμηριωμένο και η
πρακτική της Meta – η
χρήση ανθρώπινων
συνεργατών για την
αξιολόγηση της ποιότητας
των βοηθών που
υποστηρίζονται από την
τεχνητή νοημοσύνη με
σκοπό τη βελτίωση των
μελλοντικών
αλληλεπιδράσεων – δεν
είναι καινούργια. Το
2019, ο Guardian ανέφερε
πώς εξωτερικοί
συνεργάτες
της Apple άκουγαν
τακτικά εξαιρετικά
ευαίσθητες πληροφορίες
από χρήστες της Siri,
παρόλο που η εταιρεία
«δεν είχε συγκεκριμένες
διαδικασίες για τη
διαχείριση ευαίσθητων
ηχογραφήσεων» εκείνη την
εποχή. Ομοίως,
το Bloomberg ανέφερε πώς
η Amazon είχε χιλιάδες
υπαλλήλους και
συνεργάτες σε όλο τον
κόσμο να εξετάζουν και
να μεταγράφουν
χειροκίνητα κλιπ από
χρήστες της Alexa.
Οι Vice και Motherboard ανέφεραν
επίσης ότι οι
υπεργολάβοι που
προσέλαβε η Microsoft
ηχογράφησαν και
επανεξέτασαν φωνητικό
περιεχόμενο, παρόλο που
αυτό σήμαινε ότι συχνά
άκουγαν φωνές παιδιών
μέσω τυχαίας
ενεργοποίησης στις
κονσόλες Xbox τους.
Αλλά η
Meta είναι μια
διαφορετική ιστορία,
ιδίως δεδομένου του
ιστορικού της την
τελευταία δεκαετία όσον
αφορά την εξάρτηση από
εξωτερικούς συνεργάτες
και τα κενά της
εταιρείας στη
διακυβέρνηση δεδομένων.
Το
αμφιλεγόμενο παρελθόν
της Meta σχετικά με το
απόρρητο των χρηστών
Το 2018,
οι New York Times και
ο Guardian ανέφεραν πώς
η Cambridge Analytica,
μια ομάδα πολιτικών
συμβούλων που
χρηματοδοτείται από τον
Ρεπουμπλικάνο
δισεκατομμυριούχο Robert
Mercer, εκμεταλλεύτηκε
το Facebook για να
συλλέξει δεδομένα από
δεκάδες εκατομμύρια
χρήστες χωρίς τη
συγκατάθεσή τους
και χρησιμοποίησε αυτά
τα δεδομένα για να
δημιουργήσει προφίλ
ψηφοφόρων των ΗΠΑ και να
τους στοχεύσει με
εξατομικευμένες
πολιτικές διαφημίσεις
για να βοηθήσει στην
εκλογή του
Προέδρου Ντόναλντ
Τραμπ το 2016. Η
παραβίαση προήλθε από
μια εφαρμογή κουίζ
προσωπικότητας που
συνέλεγε δεδομένα – όχι
μόνο από τους
συμμετέχοντες, αλλά και
από τους φίλους τους.
Αυτό οδήγησε στο να
επιβληθεί στο Facebook
πρόστιμο 5
δισεκατομμυρίων δολαρίων
από την Ομοσπονδιακή
Επιτροπή Εμπορίου (FTC),
σε έναν από τους
μεγαλύτερους
διακανονισμούς απορρήτου
στην ιστορία των ΗΠΑ.
Το
σκάνδαλο της Cambridge
Analytica αποκάλυψε
ευρύτερα ζητήματα με την
πλατφόρμα
προγραμματιστών
του Facebook, η οποία
επέτρεπε τεράστια
πρόσβαση σε δεδομένα,
αλλά είχε περιορισμένη
εποπτεία. Σύμφωνα με
εσωτερικά έγγραφα που
δημοσίευσε η Frances
Haugen, μια
πληροφοριοδότρια, το
2021, η ηγεσία της Meta
συχνά έδινε
προτεραιότητα στην
ανάπτυξη έναντι των
ανησυχιών για το
απόρρητο και την
ασφάλεια.
Η Meta
έχει επίσης βρεθεί στο
στόχαστρο για τη χρήση
υπεργολάβων: Το 2019,
το Bloomberg ανέφερε πώς
το Facebook
πλήρωσε εξωτερικούς
συνεργάτες για να
μεταγράψουν τις ηχητικές
συνομιλίες των χρηστών
χωρίς να γνωρίζουν πώς
αποκτήθηκαν εξαρχής.
(Το Facebook, εκείνη την
εποχή, δήλωσε ότι οι
ηχογραφήσεις προέρχονταν
μόνο από χρήστες που
είχαν επιλέξει τις
υπηρεσίες μεταγραφής,
προσθέτοντας ότι είχε
επίσης «παύσει» αυτήν
την πρακτική).
Το
Facebook έχει περάσει
χρόνια προσπαθώντας να
αποκαταστήσει την εικόνα
του: Μετονομάστηκε σε
Meta τον Οκτώβριο του
2021, παρουσιάζοντας την
αλλαγή ονόματος ως μια
μετατόπιση προς το
μέλλον στο «metaverse»
και όχι ως απάντηση στις
αντιπαραθέσεις σχετικά
με την παραπληροφόρηση,
το απόρρητο και την
ασφάλεια της πλατφόρμας.
Αλλά η κληρονομιά της
Meta στη διαχείριση
δεδομένων ρίχνει μια
βαριά σκιά. Και ενώ η
χρήση ανθρώπινων κριτών
για τη βελτίωση των
μεγάλων γλωσσικών
μοντέλων είναι κοινή
πρακτική του κλάδου σε
αυτό το σημείο, η
τελευταία έκθεση σχετικά
με τη χρήση εξωτερικών
συνεργατών από τη Meta
και τις πληροφορίες που
αυτοί λένε ότι μπορούν
να δουν, εγείρει νέα
ερωτήματα σχετικά με τον
τρόπο με τον οποίο
χειρίζεται τα δεδομένα η
μητρική εταιρεία των πιο
δημοφιλών κοινωνικών
δικτύων στον κόσμο.
Σε
δήλωσή του στο Fortune,
ένας εκπρόσωπος της Meta
δήλωσε ότι η εταιρεία
έχει «αυστηρές πολιτικές
που διέπουν την πρόσβαση
σε προσωπικά δεδομένα
για όλους τους
υπαλλήλους και τους
εξωτερικούς συνεργάτες».
«Ενώ
συνεργαζόμαστε μαζί τους
για να βοηθήσουμε στη
βελτίωση της ποιότητας
των δεδομένων
εκπαίδευσης,
περιορίζουμε σκόπιμα τις
προσωπικές πληροφορίες
που βλέπουν και έχουμε
θεσπίσει διαδικασίες και
προστατευτικά πλαίσια
που τους καθοδηγούν πώς
να χειρίζονται τυχόν
τέτοιες πληροφορίες που
ενδέχεται να
συναντήσουν», δήλωσε ο
εκπρόσωπος.
«Για
έργα που επικεντρώνονται
στην εξατομίκευση της
τεχνητής νοημοσύνης… οι
υπεργολάβοι επιτρέπεται
κατά τη διάρκεια της
εργασίας τους να έχουν
πρόσβαση σε ορισμένα
προσωπικά στοιχεία
σύμφωνα με τις δημόσια
διαθέσιμες πολιτικές
απορρήτου και τους όρους
περί τεχνητής
νοημοσύνης. Ανεξάρτητα
από το πρότζεκτ,
οποιαδήποτε μη
εξουσιοδοτημένη
κοινοποίηση ή κακόβουλη
χρήση προσωπικών
στοιχείων αποτελεί
παραβίαση των πολιτικών
μας για τα δεδομένα και
θα λάβουμε τα κατάλληλα
μέτρα».
Πηγή: Fortune.com
|