| Ειδήσεις | Ο Κυνηγός | Λεωφόρος Αθηνών | "Κουλου - Βάχατα" | +/- | "Μας ακούνε" | Fundamentalist | Marx - Soros | Start Trading |

 

 

Δευτέρα, 00:01 - 06/11/2023

 

 

Παγίδες ασφαλείας, όπως το χακάρισμα ή η υποκλοπή δεδομένων, μπορεί να κρύβει η χρήση των chatbots στον εργασιακό χώρο. Όπως παρατηρεί η Kaspersky, αν και τα chatbots αποτελούν προϊόν των μεγάλων εταιρειών τεχνολογίας, δεν είναι απόλυτα ασφαλή σε κινδύνους όπως το χακάρισμα ή η υποκλοπή δεδομένων.

 

 

Tα τελευταία χρόνια, όλο και περισσότεροι χρησιμοποιούν τα μεγάλα γλωσσικά μοντέλα (LLM - Large Language Model), όπως το ChatGPT. Επιπλέον, η ανοδική τάση, που εμφανίζει η αναζήτηση του όρου "ChatGPT" στο Google Trends, επιβεβαιώνει την καθημερινή χρήση του ChatGPT, πιθανότατα για εργασιακούς σκοπούς. 

Έρευνα της Kaspersky στη Ρωσία αποκάλυψε ότι το 11% των ερωτηθέντων έχει χρησιμοποιήσει chatbots, ενώ σχεδόν το 30% θεωρεί ότι είναι πιθανό διάφορες δουλειές να αντικατασταθούν από τη χρήση αυτής της τεχνολογίας. Άλλες έρευνες δείχνουν ότι το 50% των Βέλγων, που κάνουν κάποια δουλειά γραφείου και το 65% στο Ηνωμένο Βασίλειο, χρησιμοποιούν καθημερινά το ChatGPT. 

Οι ειδικοί της Kaspersky εντόπισαν τέσσερις βασικούς κινδύνους, που σχετίζονται με τη χρήση του ChatGPT σε εργασιακό περιβάλλον. Όπως τονίζουν, τα chatbots  δεν είναι απόλυτα ασφαλή απέναντι σε κινδύνους, όπως το χακάρισμα ή η υποκλοπή δεδομένων. Για παράδειγμα, υπήρξε ένα περιστατικό κατά το οποίο οι χρήστες του ChatGPT ήταν σε θέση να δουν μηνύματα από το ιστορικό άλλων συνομιλιών.

Έτερο ζήτημα είναι η πιθανή διαρροή δεδομένων μέσω chatbots. “Θεωρητικά, οι συνομιλίες με chatbots μπορεί να χρησιμοποιηθούν για την εκπαίδευση μελλοντικών μοντέλων. Τα LLMs έχουν τη δυνατότητα να απομνημονεύουν αυτόματα αριθμητικές ακολουθίες, μεταξύ των οποίων και οι αριθμοί τηλεφώνου που, όμως, δεν βοηθούν κάπου στη βελτίωση των μοντέλων. Αντιθέτως, τέτοιου είδους λειτουργίες κρύβουν κινδύνους για την ιδιωτικότητα. Συνεπώς, κατά τη δοκιμή των μοντέλων, είναι πιθανό τέτοιου είδους δεδομένα, με η χωρίς την πρόθεση του εκάστοτε χρήστη, να διαρρεύσουν”. αναφέρει η εταιρεία.

Κακόβουλος client

Άλλη μεγάλη ανησυχία είναι αυτό που οι αναλυτές αποκαλούν “κακόβουλος client”. Αυτό αποτελεί μεγάλη ανησυχία σε περιοχές, όπου οι επίσημες ιστοσελίδες, όπως το ChatGPT, είναι αποκλεισμένες.

Οι χρήστες ενδέχεται να καταφύγουν σε ανεπίσημες εναλλακτικές λύσεις, όπως εφαρμογές, ιστότοπους ή bot messenger και να κατεβάσουν malware χωρίς να το αντιληφθούν.

Τέλος, ο τέταρτος κίνδυνος, που εντοπίζουν, σχετίζεται με το χακάρισμα λογαριασμού. Οι επιτιθέμενοι μπορούν να εισέλθουν στους λογαριασμούς των εργαζομένων, αποκτώντας πρόσβαση στα δεδομένα τους, μέσω επιθέσεων phishing ή credential stuffing.

“Η απώλεια δεδομένων αποτελεί μεγάλη ανησυχία για την προστασία του προσωπικού απορρήτου τόσο για τους χρήστες, όσο και για τις επιχειρήσεις, όταν χρησιμοποιούν chatbots. Οι προγραμματιστές οφείλουν να εξηγούν τον τρόπο με τον οποίο χρησιμοποιούνται τα δεδομένα για model training στις πολιτικές απορρήτου τους”, αναφέρει η Kaspersky.

Πάντως, η εταιρεία επισημαίνει από την έρευνά της σε δημοφιλή chatbots, συμπεριλαμβανομένων των ChatGPT, ChatGPT API, Anthropic Claude, Bing Chat, Bing Chat Enterprise, You.com, Google Bard και Genius App by Alloy Studios, προκύπτει ότι στον τομέα B2B υπάρχουν υψηλότερα πρωτόκολλα ασφάλειας και προστασίας του απορρήτου, ως αποτέλεσμα του μεγαλύτερου ρίσκου που υπάρχει για την υποκλοπή εταιρικών δεδομένων.

Κατά συνέπεια, οι όροι και οι προϋποθέσεις για τη χρήση, τη συλλογή, την αποθήκευση και την επεξεργασία δεδομένων, επικεντρώνονται περισσότερο στην προστασία σε σύγκριση με τον τομέα B2C.

 

Greek Finance Forum Team

 

 

Σχόλια Αναγνωστών

 

 
 

 

 

 

 

 

 

 

 
   

   

Αποποίηση Ευθύνης.... 

© 2016-2023 Greek Finance Forum