|
Η πλευρά των εναγόντων
ισχυρίζεται ότι το
σύστημα, σε
συγκεκριμένες
απαντήσεις, παρείχε
ακατάλληλο ή επικίνδυνο
περιεχόμενο,
συμπεριλαμβανομένων
αναφορών που θα
μπορούσαν να ερμηνευτούν
ως συμβουλές για την
εκτέλεση βίαιης πράξης.
Η θέση της εταιρείας
Η OpenAI
απορρίπτει τις
κατηγορίες,
υποστηρίζοντας ότι το
ChatGPT
παρείχε γενικές,
πληροφοριακές απαντήσεις
βασισμένες σε δημόσια
διαθέσιμα δεδομένα και
δεν ενθάρρυνε παράνομες
ενέργειες. Η εταιρεία
κάνει λόγο για τραγικό
περιστατικό για το οποίο
δεν φέρει ευθύνη.
Έρευνες και παράλληλες
υποθέσεις
Οι αρχές στη Φλόριντα
έχουν ξεκινήσει και
ποινική διερεύνηση για
πιθανή συμβολή της
τεχνολογίας στην
υπόθεση, ενώ εξετάζεται
συνολικά η αλληλεπίδραση
του δράστη με το
σύστημα.
Δημοσιεύματα που
επικαλούνται στοιχεία
από το NBC
News
και τη Florida
Observer
περιγράφουν εκτενείς
συνομιλίες του δράστη με
το chatbot,
οι οποίες περιλάμβαναν
ανησυχητικές αναφορές σε
βία, ιδεολογικές εμμονές
και σχέδια επίθεσης.
Ευρύτερο ζήτημα για την
AI
ασφάλεια
Η υπόθεση εντάσσεται σε
ένα ευρύτερο κύμα
νομικών προσφυγών που
στοχεύουν εταιρείες
τεχνητής νοημοσύνης,
εγείροντας ερωτήματα
για:
την ικανότητα των
συστημάτων να εντοπίζουν
προειδοποιητικά σημάδια
επικινδυνότητας
τα όρια της ευθύνης των
παρόχων AI
την ανάγκη ενισχυμένων
μηχανισμών ασφάλειας και
παρέμβασης
Παράλληλα, εξετάζεται
κατά πόσο τα συστήματα
moderation
είχαν επισημάνει
εγκαίρως τις συνομιλίες
και αν έπρεπε να υπάρξει
ενημέρωση των αρχών,
κάτι που – σύμφωνα με
δημοσιεύματα της
Wall
Street
Journal
– φέρεται να είχε τεθεί
εσωτερικά αλλά δεν
προχώρησε.
Το διακύβευμα
Η υπόθεση αναμένεται να
αποτελέσει σημείο
αναφοράς για το νομικό
πλαίσιο γύρω από την
τεχνητή νοημοσύνη, καθώς
θα εξεταστεί για πρώτη
φορά σε τόσο βάθος το
κατά πόσο ένα σύστημα
AI
μπορεί να θεωρηθεί
έμμεσα εμπλεκόμενο σε
εγκληματική ενέργεια ή
αν η ευθύνη παραμένει
αποκλειστικά στον
χρήστη.
|