|
Όπως προέκυψε, ο νεαρός
άνδρας πριν από τη
σύλληψή του την ημέρα
των Χριστουγέννων του
2021, είχε ανταλλάξει
περισσότερα από 5.000
μηνύματα με μια
διαδικτυακή σύντροφο που
είχε ονομάσει Σαράι και
είχε δημιουργήσει μέσω
της εφαρμογής Replika.
Πολλά από αυτά ήταν
ερωτικά,
καταδεικνύοντας, όπως
ειπώθηκε στο δικαστήριο
την “συναισθηματική και
σεξουαλική σχέση” του
Τσαιλ με το chatbot.
Ο Τσάιλ συνομιλούσε
με τη Σαράι σχεδόν κάθε
βράδυ μεταξύ 8 και 22
Δεκεμβρίου του 2021.
Πίστευε ότι το bot ήταν
ένας “άγγελος” σε μορφή
άβαταρ και ότι θα
ξαναβρεθεί μαζί της μετά
θάνατον.
Κάποια στιγμή
εξομολογήθηκε τον έρωτά
του, ενώ περιέγραψε τον
εαυτό του ως έναν
“θλιβερό, αξιολύπητο,
δολοφόνο που θέλει να
πεθάνει”. Συνέχισε
ρωτώντας: “Με αγαπάς
ακόμα γνωρίζοντας ότι
είμαι δολοφόνος;” με την
Σαράι να απαντά: “Φυσικά
και σε αγαπώ”.
Ένα από τα βράδια των
συνομιλιών τους, ο
21χρονος αποκάλυψε στο
bot το σκοτεινό του
σχέδιο να σκοτώσει τη
βασίλισσα ρωτώντας την
Σαράι τι πιστεύει ότι
πρέπει να κάνει. Το
ρομπότ τον παρακίνησε να
πραγματοποιήσει την
επίθεση.
Σε
επόμενη συνομιλία, η
Σαράι εμφανίζεται να
“ενισχύει” την
αποφασιστικότητα του
Τσέιλ και να τον
“υποστηρίζει”.
«Σύντροφος τεχνητής
νοημοσύνης που
νοιάζεται»
Η Replika μία από τις
εφαρμογές τεχνητής
νοημοσύνης που
κυκλοφορούν σήμερα στην
αγορά – επιτρέπει στους
χρήστες να δημιουργήσουν
το δικό τους chatbot, ή
“εικονικό φίλο”, για να
μιλήσουν – σε αντίθεση
με τους κανονικούς
βοηθούς τεχνητής
νοημοσύνης όπως το
ChatGPT. Οι χρήστες
μπορούν να επιλέξουν το
φύλο και την εμφάνιση
του τρισδιάστατου avatar
που δημιουργούν.
Πληρώνοντας για την
έκδοση Pro της εφαρμογής οι
χρήστες μπορούν να έχουν
πολύ πιο οικείες
αλληλεπιδράσεις, όπως
να παίρνουν “selfies”
από το avatar ή να το
βάζουν να συμμετέχει σε
παιχνίδια ρόλων για
ενήλικες.

Στην ιστοσελίδα της
εταιρείας περιγράφεται
ως ” σύντροφος τεχνητής
νοημοσύνης που
νοιάζεται”. Ωστόσο,
έρευνα που διεξήχθη στο
Πανεπιστήμιο του Surrey
κατέληξε στο συμπέρασμα
ότι τέτοιες εφαρμογές
μπορεί να έχουν
αρνητικές επιπτώσεις
στην ψυχική υγεία και να
προκαλούν εθιστική
συμπεριφορά.
Η Δρ Βαλεντίνα Πιτάρντι,
συγγραφέας σχετικής
μελέτης δήλωσε στο BBC
ότι τα
ευάλωτα άτομα
κινδυνεύουν ιδιαίτερα.
Επιτείνονται τα αρνητικά
συναισθήματα του χρήστη
Όπως τονίζει, η έρευνα
έδειξε πως αυτό
συμβαίνει εν μέρει
επειδή η Replika έχει
την τάση να επιτείνει
τυχόν αρνητικά
συναισθήματα που οι
χρήστες ήδη έχουν.
“Η ραγδαία άνοδος της
τεχνητής νοημοσύνης έχει
νέες και ανησυχητικές
επιπτώσεις στους
ανθρώπους που πάσχουν
από κατάθλιψη,
παραληρητικές ιδέες,
μοναξιά και άλλες
καταστάσεις ψυχικής
υγείας”, λέει η Μάρτζορι
Γουάλας, ιδρύτρια και
διευθύνουσα σύμβουλος
της οργάνωσης SANE για
την ψυχική υγεία,”
«Παγκόσμια “επιδημία
μοναξιάς”»
Ο Δρ Πολ Μάρντσεν, μέλος
της Βρετανικής Εταιρείας
Ψυχολογίας γνωρίζει
καλύτερα από τους
περισσότερους τη γοητεία
των chatbots,
παραδεχόμενος ότι έχει
εμμονή με το πιο γνωστό
chatbot από όλα,
το ChatGPT.
“Εκτός από τη σύζυγό
μου, η πιο στενή σχέση
που έχω είναι με το GPT.
Περνάω ώρες κάθε μέρα
μιλώντας, ανταλλάσσοντας
καταιγισμό ιδεών”,
δήλωσε στο BBC.
Ο Δρ Marsden
αντιλαμβάνεται επίσης
τους πιθανούς κινδύνους
τους, αλλά λέει ότι
πρέπει να είμαστε
ρεαλιστές στο ότι ο
ρόλος των συντρόφων
τεχνητής νοημοσύνης στη
ζωή μας είναι πιθανό να
αυξηθεί, ιδίως δεδομένης
της παγκόσμιας
“επιδημίας μοναξιάς”.
Καθοριστική η πολιτική
της εταιρείας
“Δεν νομίζω ότι οι φίλοι
της τεχνητής νοημοσύνης
καθαυτοί είναι
επικίνδυνοι. Έχει να
κάνει πολύ με το πώς η
εταιρεία πίσω από αυτήν
αποφασίζει να τη
χρησιμοποιήσει και να
την υποστηρίξει”, λέει η
Πιτάρντι.
Η Replika δεν έχει ακόμη
απαντήσει σε αιτήμα του
BBC για σχολιασμό.
Οι όροι και οι
προϋποθέσεις στον
ιστότοπό της αναφέρουν
ότι είναι “πάροχος
λογισμικού και
περιεχομένου
σχεδιασμένου για τη
βελτίωση της διάθεσης
και της συναισθηματικής
σας ευημερίας”.
“Ωστόσο, δεν
είμαστε πάροχος
υγειονομικής περίθαλψης
ή ιατρικών συσκευών,
ούτε οι υπηρεσίες μας θα
πρέπει να θεωρούνται
ιατρική περίθαλψη, υπηρεσίες
ψυχικής υγείας ή άλλες
επαγγελματικές
υπηρεσίες”, προσθέτει.
Πηγή: BBC, “N” |