|
Tα τελευταία χρόνια, όλο
και περισσότεροι
χρησιμοποιούν τα μεγάλα
γλωσσικά μοντέλα (LLM -
Large Language Model),
όπως
το ChatGPT. Επιπλέον, η
ανοδική τάση, που
εμφανίζει η αναζήτηση
του όρου "ChatGPT"
στο Google
Trends, επιβεβαιώνει την
καθημερινή χρήση
του ChatGPT, πιθανότατα
για εργασιακούς
σκοπούς.
Έρευνα της Kaspersky στη
Ρωσία αποκάλυψε ότι το
11% των ερωτηθέντων έχει
χρησιμοποιήσει chatbots,
ενώ σχεδόν το 30% θεωρεί
ότι είναι πιθανό
διάφορες δουλειές να
αντικατασταθούν από τη
χρήση αυτής της
τεχνολογίας. Άλλες
έρευνες δείχνουν ότι το
50% των Βέλγων, που
κάνουν κάποια δουλειά
γραφείου και το 65%
στο Ηνωμένο
Βασίλειο, χρησιμοποιούν
καθημερινά το ChatGPT.
Οι ειδικοί
της Kaspersky εντόπισαν
τέσσερις βασικούς
κινδύνους, που
σχετίζονται με τη χρήση
του ChatGPT σε εργασιακό
περιβάλλον. Όπως
τονίζουν, τα chatbots
δεν είναι απόλυτα ασφαλή
απέναντι σε κινδύνους,
όπως το χακάρισμα ή η
υποκλοπή δεδομένων. Για
παράδειγμα, υπήρξε
ένα περιστατικό κατά το
οποίο οι χρήστες
του ChatGPT ήταν σε θέση
να δουν μηνύματα από το
ιστορικό άλλων
συνομιλιών.
Έτερο ζήτημα είναι η
πιθανή διαρροή δεδομένων
μέσω chatbots. “Θεωρητικά,
οι συνομιλίες
με chatbots μπορεί να
χρησιμοποιηθούν για την
εκπαίδευση μελλοντικών
μοντέλων. Τα LLMs έχουν
τη δυνατότητα να
απομνημονεύουν αυτόματα
αριθμητικές ακολουθίες,
μεταξύ των οποίων και οι
αριθμοί τηλεφώνου που,
όμως, δεν βοηθούν κάπου
στη βελτίωση των
μοντέλων. Αντιθέτως,
τέτοιου είδους
λειτουργίες κρύβουν
κινδύνους για την
ιδιωτικότητα. Συνεπώς,
κατά τη δοκιμή των
μοντέλων, είναι πιθανό
τέτοιου είδους δεδομένα,
με η χωρίς την πρόθεση
του εκάστοτε χρήστη, να
διαρρεύσουν”. αναφέρει
η εταιρεία.
Κακόβουλος client
Άλλη μεγάλη ανησυχία
είναι αυτό που οι
αναλυτές αποκαλούν
“κακόβουλος client”.
Αυτό αποτελεί μεγάλη
ανησυχία σε περιοχές,
όπου οι επίσημες
ιστοσελίδες, όπως
το ChatGPT, είναι
αποκλεισμένες.
Οι χρήστες ενδέχεται να
καταφύγουν σε ανεπίσημες
εναλλακτικές λύσεις,
όπως εφαρμογές,
ιστότοπους ή bot
messenger και να
κατεβάσουν malware χωρίς
να το αντιληφθούν.
Τέλος, ο τέταρτος
κίνδυνος, που
εντοπίζουν, σχετίζεται
με το χακάρισμα
λογαριασμού. Οι
επιτιθέμενοι μπορούν να
εισέλθουν στους
λογαριασμούς των
εργαζομένων, αποκτώντας
πρόσβαση στα δεδομένα
τους, μέσω
επιθέσεων phishing ή
credential stuffing.
“Η απώλεια δεδομένων
αποτελεί μεγάλη ανησυχία
για την προστασία του
προσωπικού απορρήτου
τόσο για τους χρήστες,
όσο και για τις
επιχειρήσεις, όταν
χρησιμοποιούν chatbots.
Οι προγραμματιστές
οφείλουν να εξηγούν τον
τρόπο με τον οποίο
χρησιμοποιούνται τα
δεδομένα για model training στις
πολιτικές απορρήτου
τους”, αναφέρει η
Kaspersky.
Πάντως, η εταιρεία
επισημαίνει από την
έρευνά της σε
δημοφιλή chatbots,
συμπεριλαμβανομένων
των ChatGPT, ChatGPT
API, Anthropic
Claude, Bing Chat, Bing
Chat
Enterprise, You.com, Google
Bard και Genius App by
Alloy Studios, προκύπτει
ότι στον
τομέα B2B υπάρχουν
υψηλότερα πρωτόκολλα
ασφάλειας και προστασίας
του απορρήτου, ως
αποτέλεσμα του
μεγαλύτερου ρίσκου που
υπάρχει για την υποκλοπή
εταιρικών δεδομένων.
Κατά συνέπεια, οι όροι
και οι προϋποθέσεις για
τη χρήση, τη συλλογή,
την αποθήκευση και την
επεξεργασία δεδομένων,
επικεντρώνονται
περισσότερο στην
προστασία σε σύγκριση με
τον τομέα B2C. |