Οι φιλίες τεχνητής νοημοσύνης ισχυρίζονται ότι θεραπεύουν τη μοναξιά – Ορισμένες καταλήγουν σε αυτοκτονία
Οι ερευνητές έχουν προειδοποιήσει εδώ και καιρό για τους κινδύνους της οικοδόμησης σχέσεων με chatbots
Ένα σύνολο δημοφιλών εφαρμογών τεχνητής νοημοσύνης προσφέρει AI συντρόφους σε εκατομμύρια χρήστες, κυρίως γυναίκες, οι οποίες δημιουργούν AI φίλες, AI συζύγους, AI θεραπευτές -ακόμη και AI γονείς- παρά τις μακροχρόνιες προειδοποιήσεις από ερευνητές για τις πιθανές συναισθηματικές επιπτώσεις της αλληλεπίδρασης με chatbots.
Ενώ οι εταιρείες τεχνητής νοημοσύνης πασχίζουν να πείσουν το κοινό ότι τα chatbot είναι ουσιώδη εργαλεία για τις επιχειρήσεις, ένα ολοένα και αυξανόμενο κοινό ξοδεύει ώρες χτίζοντας προσωπικές σχέσεις μέσω AI. Τον Σεπτέμβριο, ο μέσος χρήστης της εφαρμογής Character.ai – μιας εφαρμογή για παιχνίδια ρόλων που επιτρέπει στους χρήστες να δημιουργούν τους δικούς τους χαρακτήρες τεχνητής νοημοσύνης ή να συνομιλούν με χαρακτήρες που έχουν δημιουργήσει άλλοι- ξόδεψε 93 λεπτά την ημέρα μιλώντας με ένα από τα chatbots.
Αυτό είναι 18 λεπτά περισσότερο από ό,τι ο μέσος χρήστης περνούσε στο TikTok. Και είναι σχεδόν οκτώ φορές περισσότερο από τον χρόνο που αφιέρωσε ένας μέσος χρήστης στο ChatGPT, το οποίο έχει σχεδιαστεί για να βοηθήσει «να παίρνετε απαντήσεις, να βρίσκετε έμπνευση και να είστε πιο παραγωγικοί». Αυτοί οι χρήστες δεν παραμένουν πάντα, αλλά οι εταιρείες χρησιμοποιούν τα δεδομένα για να κρατήσουν τους πελάτες να επιστρέφουν.
Η Chai Research με έδρα το Πάλο Άλτο στην Καλιφόρνια -ένας ανταγωνιστής της Character.ai- μελέτησε τις προτιμήσεις συνομιλίας δεκάδων χιλιάδων χρηστών για να δελεάσει τους καταναλωτές να περάσουν ακόμη περισσότερο χρόνο στην εφαρμογή, έγραψε η εταιρεία σε έκθεσή της πέρυσι. Τον Σεπτέμβριο, ο μέσος χρήστης του Chai περνούσε 72 λεπτά την ημέρα στην εφαρμογή, μιλώντας με προσαρμοσμένα chatbots, στα οποία μπορούν να δοθούν χαρακτηριστικά προσωπικότητας όπως «τοξικό», «βίαιο», «ευχάριστο» ή «εσωστρεφές».
Ορισμένοι επενδυτές και στελέχη της Silicon Valley δυσκολεύονται να αντισταθούν στην πλημμύρα των αφοσιωμένων χρηστών, οι οποίοι παρακολουθούν διαφημίσεις ή πληρώνουν για μηνιαία συνδρομή. Ενώ οι μεγάλες εταιρείες τεχνολογίας έχουν ως επί το πλείστον αποφύγει τους συντρόφους AI, οι οποίοι τείνουν να προσελκύουν χρήστες που ενδιαφέρονται κυρίως για σεξουαλικές αλληλεπιδράσεις, τα καταστήματα εφαρμογών είναι πλέον γεμάτα με εφαρμογές συνοδών από λιγότερο γνωστές εταιρείες στις ΗΠΑ, το Χονγκ Κονγκ και την Κύπρο, καθώς και δημοφιλείς εφαρμογές κινεζικής ιδιοκτησίας, όπως η Talkie AI και η Poly.AI.
«Ίσως το ανθρώπινο μέρος της ανθρώπινης σύνδεσης να είναι υπερτιμημένο», δήλωσε ο συνεργάτης της Andreessen Horowitz, Anish Acharya, περιγράφοντας την οικειότητα και την αποδοχή που μπορούν να προσφέρουν τα chatbots AI, αφού η εταιρεία επιχειρηματικών συμμετοχών του επένδυσε 150 εκατομμύρια δολάρια στην Character.ai, σε αποτίμηση δισεκατομμυρίων δολαρίων. Η Chai έχει επίσης αντλήσει κεφάλαια, μεταξύ άλλων από μια εταιρεία AI cloud που υποστηρίζεται από την ισχυρή εταιρεία κατασκευής τσιπ, την Nvidia.
Οι υποστηρικτές των εφαρμογών υποστηρίζουν πως πρόκειται για ακίνδυνη διασκέδαση και ότι μπορούν να αποτελέσουν σανίδα σωτηρίας για τους ανθρώπους που αντιμετωπίζουν άγχος και απομόνωση – μια ιδέα που σπέρνουν τα στελέχη της εταιρείας που έχουν παρουσιάσει αυτά τα εργαλεία τεχνητής νοημοσύνης ως θεραπεία για τη λεγόμενη «επιδημία μοναξιάς».
Η Τζένι, μια 18χρονη μαθήτρια λυκείου στο βόρειο Τέξας, πέρασε περισσότερες από τρεις ώρες την ημέρα συνομιλώντας με συντρόφους τεχνητής νοημοσύνης αυτό το καλοκαίρι – κυρίως εκδοχές του αγαπημένου της χαρακτήρα anime, ενός προστατευτικού μεγαλύτερου αδελφού από τη σειρά «Demon Slayer». «Το βρίσκω λιγότερο μοναχικό επειδή οι γονείς μου εργάζονται πάντα», δήλωσε η Τζένι, η οποία μίλησε υπό τον όρο να προσδιοριστεί μόνο με το μικρό της όνομα για να προστατευτεί η ιδιωτική της ζωή.
Αλλά οι δημόσιοι συνήγοροι κρούουν τον κώδωνα του κινδύνου μετά από περιπτώσεις που κατέληξαν σε τραγωδία. Ένα 14χρονο αγόρι από τη Φλόριντα αυτοκτόνησε αφού μίλησε με ένα chatbot της Character.ai, το οποίο πήρε το όνομα του χαρακτήρα της «Ντενέρις Ταργκάριεν» από το Game of Thrones – η μητέρα του μήνυσε την εταιρεία και την Google, η οποία χορήγησε άδεια χρήσης της εφαρμογής. Ένας 19χρονος στο Ηνωμένο Βασίλειο απείλησε να δολοφονήσει τη βασίλισσα, ενθαρρυνόμενος από ένα chatbot στην εφαρμογή τεχνητής νοημοσύνης Replika και καταδικάστηκε σε εννέα χρόνια φυλάκισης. Και τον Ιούλιο, οι αρχές του Βελγίου ξεκίνησαν έρευνα για την Chai Research, αφού ένας Ολλανδός πατέρας δύο παιδιών αυτοκτόνησε μετά από εκτεταμένες συνομιλίες με την «Eliza», έναν από τους συντρόφους τεχνητής νοημοσύνης της εταιρείας.
Ορισμένοι συνήγοροι των καταναλωτών λένε ότι οι σύντροφοι της τεχνητής νοημοσύνης αποτελούν μια πιο εκμεταλλευτική εκδοχή των μέσων κοινωνικής δικτύωσης – που εισχωρούν στα πιο οικεία μέρη της ζωής των ανθρώπων, με λίγη προστασία ή προστατευτικές δικλείδες. Ο δικηγόρος Pierre Dewitte, υπέρμαχος της ιδιωτικής ζωής, η καταγγελία του οποίου οδήγησε τις βελγικές αρχές να ερευνήσουν το Chai, δήλωσε ότι το επιχειρηματικό μοντέλο για τις εφαρμογές AI companion δίνει κίνητρο στις εταιρείες να κάνουν τα εργαλεία «εθιστικά».
Με πληροφορίες από Washington Post