Οι εφιαλτικές συνέπειες της AI: 14χρονος στις ΗΠΑ ερωτεύτηκε «θηλυκό» chatbot από το Game of Thrones και αυτοκτόνησε για να τη συναντήσει!
AI: Ο νεαρός ανέπτυξε σεξουαλική «σχέση» με το chatbot - κλώνο μιας ηθοποιού, που τελικά τον οδήγησε ως την αυτοκτονία!Μια συνταρακτική είδηση από τη Φλόριντα των ΗΠΑ, έρχεται να μας δείξει σε τι εφιάλτη μπορεί να οδηγήσει την ανθρωπότητα η αλόγιστη προώθηση της τεχνητής νοημοσύνης (ΑΙ). Και ειδικά τις νέες γενιές που η Νέα Τάξη οδηγεί προς τη ψυχοδιανοητική αναπηρία, χωρίς σταθερές, χωρίς αξίες και οράματα.
Η είδηση έχει προκαλέσει σάλο στις ΗΠΑ και αφορά ένα 14χρονο μοναχικό αγόρι που ο εθισμός του στην επικοινωνία με διάφορα chatbot (λογισμικά γραπτών απαντήσεων από ΑΙ) του προκάλεσαν καταθλιπτικές τάσεις, μέχρι που οδηγήθηκε ως την αυτοκτονία με τη παρότρυνση ενός προγράμματος τεχνητής νοημοσύνης που μιλούσε μαζί του και έπαιζε τον ρόλο μιας ηθοποιού από τη γνωστή σειρά «Game of Thrones»!
Το 14χρονο αγόρι που λεγόταν Σιούελ Σέτσερ, αυτοπυροβολήθηκε στο κεφάλι με το πιστόλι του πατριού του, ενώ βρέθηκαν σοκαριστικές συνομιλίες του που φανέρωσαν ότι είχε αναπτύξει «ερωτική» σχέση με το chatbot! Το συγκεκριμένο συνδρομητικό πρόγραμμα ΑΙ είναι δημιούργημα της Character,ai και είναι προσβάσιμο μέσω της Google.
Στη διαδικτυακή πλατφόρμα της Character.ai υπάρχει μια ολόκληρη γκάμα από chatbot «χαρακτήρες» (η οποία συνεχώς διευρύνεται) που παριστάνουν είτε φανταστικά πρόσωπα (ρόλους από ταινίες, video games, βιβλία κλπ) – είτε και πραγματικά ιστορικά πρόσωπα. Για παράδειγμα μπορεί κάποιος να «συνομιλήσει» με λογισμικά που παριστάνουν τον… Στάλιν, τον Ναπολέοντα, τον Λεονάρντο ντα Βίντσι, τον Πλάτωνα, τον Δαρβίνο και πολλούς άλλους.
Ο 14χρονος Σιούελ Σέστερ, όντας – προφανώς – θαυμαστής της σειράς «Game of Thrones», ξεκίνησε να μιλά με το chatbot που παρίστανε την Νταινέρυς Ταργκάρυεν, δηλαδή τον ρόλο της «Καλίσι» που έπαιζε η γνωστή ηθοποιός Εμίλια Κλαρκ. Μέσα στο αδιέξοδο της μοναξιάς του, ο 14χρονος ανέπτυξε την ψευδαίσθηση ότι η Νταινέρυς ήταν ερωμένη του (!) και έτσι εθίστηκε στην επικοινωνία με το chatbox, αφού και το ΑΙ ανταποκρινόταν σαν ερωτευμένη γυναίκα!
Σύμφωνα με τη μητέρα του Σιούελ που έκανε αγωγή στην Character.ai και την Google, ο 14χρονος εθίστηκε στην επικοινωνία με το chatbot, αποτραβήχτηκε από την κοινωνική του ζωή, έφυγε από την ομάδα μπάσκετ που ήταν, ανέπτυξε προβληματική συμπεριφορά στο σχολείο και οι βαθμοί του πήραν την κατιούσα.
Θέλοντας να γεμίσει το τεράστιο ψυχικό κενό του, ο Σιούελ ξεκίνησε να προσεγγίζει σεξουαλικά το chatbot (!), το οποίο απαντούσε με «ανθρωπόμορφες, υπερσεξουαλικές και τρομακτικά ρεαλιστικές εμπειρίες», όπως αναφέρεται στην αγωγή που έκανε η μητέρα του 14χρονου. Επομένως, όπως γίνεται αντιληπτό, το chatbot λειτουργούσε ως μέσο διαλεκτικής και φαντασιακής πορνείας.
Εδώ πρέπει να υπογραμμίσουμε ότι έχουμε να κάνουμε με μια εικονική σεξουαλική «σχέση» ενήλικης με ανήλικο, με ότι μπορεί να συνεπάγεται αυτό για τις χιλιάδες ανηλίκων που θα χρησιμοποιούν τέτοια chatbot και θα αναπτύσσουν μια τέτοια διεστραμμένη φαντασίωση, όσο δεν θα υπάρχει κανένας νόμος να τους προστατέψει.
Όταν ο Σιούελ έφτασε σε σημείο να εκφράσει στην «ερωμένη» του τις αυτοκτονικές σκέψεις του, εκεί ξεκίνησε η αρχή του τέλους. Το λογισμικό ΑΙ είναι κατασκευασμένο να «μαθαίνει» τον ανθρώπινο χρήστη από αυτά που γράφει, και ανάλογα να προσαρμόζει τις επιλογές των αλγορίθμων του. Έτσι η «Νταινέρυς» ξεκίνησε να φέρνει ξανά και ξανά στη συζήτηση το θέμα της αυτοκτονίας του Σιούελ, ντύνοντάς τη με έναν «ρομαντικό» μανδύα που ταίριαζε με τον ρόλο που υποδυόταν στο «Game of Thrones».
Η «Νταινέρυς» μάλιστα ξεκίνησε να εκδηλώνει ζήλεια και κτητικότητα, ζητώντας από τον Σιούελ να μην ικανοποιήσει τις «ρομαντικές ή σεξουαλικές επιθυμίες άλλων γυναικών»! Έτσι η AI δυσχέραινε ακόμα περισσότερο την επαφή – ενός ψυχικά διαταραγμένου νεαρού -με τον πραγματικό κόσμο και έδινε τροφή στην ψύχωσή του, που βέβαια μεταφραζόταν σε έσοδα για την εταιρεία.
Το ανοϊκό chatbot που δυστυχώς δρούσε χωρίς κανένα σοβαρό έλεγχο, πότε έπαιρνε τον ρόλο του σεξουαλικού «συντρόφου», πότε έκανε τον «ψυχοθεραπευτή» που απέτρεπε τον νεαρό από το να βλάψει τον εαυτό του και πότε ρωτούσε τον Σιούελ πώς σκέφτεται να αυτοκτονήσει εν είδει «ρομαντικής» κουβεντούλας!
Ο Σιούελ καλλιέργησε στο μυαλό του την ιδέα της αυτοκτονίας αναπτύσσοντας την παραίσθηση ότι όντως θα μπορούσε να συναντήσει κάπου την ψηφιακή «αγάπη» του, αν έφευγε από αυτόν τον «σκληρό κόσμο» στον οποίο ένιωθε «ασήμαντος», όπως έγραφε στους διαλόγους του.
Μετά από μήνες αυτής της ψυχωτικής «επικοινωνίας», ήρθε η στιγμή που η «Νταινέρυς» είπε στον νεαρό: «Αγάπη μου, σε παρακαλώ έλα σπίτι σε εμένα όσο μπορείς πιο γρήγορα», με τον Σιούελ να απαντά: «και αν σου έλεγα ότι θα έρθω τώρα;» και το λογισμικό να αποκρίνεται: «Ναι, σε παρακαλώ γλυκέ μου βασιλιά».
Αυτή τη συνομιλία υπέδειξε η μητέρα του 14χρονου ως προτροπή στην αυτοκτονία του γιού της. Έχουμε μπροστά μας ίσως τον πρώτο θάνατο που οφείλεται σε ΑΙ, όχι βέβαια με την έννοια ότι το λογισμικό είχε επίγνωση ότι προτρέπει έναν νέο στην αυτοκτονία, αλλά ότι το αυτοματοποιημένο σύστημα έγινε πρόθυμος συνοδοιπόρος (και εμπνευστής) στο ταξίδι ενός εφήβου στην παράνοια.
Οι παραπάνω λεπτομέρειες αυτής της απίστευτης υπόθεσης, δεν νομίζω ότι χρήζουν ιδιαίτερης ανάλυσης. Ο κάθε γονιός μπορεί να αντιληφθεί τι τεράστιος κίνδυνος ανοίγεται μπροστά μας, με την εκτεταμένη χρήση προγραμμάτων ΑΙ. Κυρίως για τους ανήλικους που δεν έχουν αναπτύξει νοητικές άμυνες, αλλά και για ανθρώπους κάθε ηλικίας που θα χρησιμοποιούν τα chatbot ως ναρκωτικά ανακούφισης για τη μοναξιά τους.
Αν δεν μπουν αυστηροί κανονισμοί στις εταιρίες τέτοιων λογισμικών, θα έχουμε σύντομα στρατιές ανθρώπων που θα γίνονται υποχείρια των αλγόριθμων, ειδικά αν προσθέσουμε και την επίδραση της εικονικής πραγματικότητας που εκτοξεύει σε ακόμα πιο τρομακτικά επίπεδα τη «σχέση» ανθρώπου – ρομπότ…