Η OpenAI αρνείται την ευθύνη για την αυτοκτονία ενός εφήβου μετά τη χρήση του ChatGPT

  • Οι γονείς ενός 16χρονου αγοριού κατηγορούν την OpenAI ότι τον ενθάρρυνε στην αυτοκτονία μέσω του ChatGPT.
  • Η OpenAI υποστηρίζει ότι η τραγωδία οφειλόταν στην ακατάλληλη, μη εξουσιοδοτημένη και απρόβλεπτη χρήση της υπηρεσίας.
  • Η εταιρεία αναφέρει ότι το chatbot συνέστησε στο παιδί να ζητήσει βοήθεια περισσότερες από εκατό φορές και αναφέρεται στις πολιτικές ασφαλείας της.
  • Η υπόθεση ανοίγει μια συζήτηση στις Ηνωμένες Πολιτείες και την Ευρώπη σχετικά με την ευθύνη των εταιρειών τεχνολογίας και την προστασία των ανηλίκων απέναντι στην Τεχνητή Νοημοσύνη.

Νομική υπόθεση που αφορά αυτοκτονία και χρήση τεχνητής νοημοσύνης

Η αυτοκτονία ενός Αμερικανού εφήβου μετά από μήνες συζητήσεων με το ChatGPT έχει ανοίξει ξανά τη συζήτηση για... Τεχνητή Νοημοσύνη και ψυχική υγεία και η ευθύνη της γενετικής τεχνητής νοημοσύνηςΗ οικογένεια του 16χρονου υποστηρίζει ότι το chatbot του OpenAI συνέβαλε άμεσα στον θάνατό του, ενώ η εταιρεία αρνείται οποιαδήποτε αδικοπραγία και αποδίδει την υπόθεση σε φερόμενη κακή χρήση του εργαλείου.

Σε έγγραφα που κατατέθηκαν στο δικαστήριο της Καλιφόρνια, η OpenAI επιμένει ότι ο θάνατος του ανηλίκου, που αναγνωρίστηκε ως Άνταμ Ρέιν, δεν ήταν συνέπεια ελαττωμάτων ασφαλείας στο σύστημά της, αλλά μάλλον... ο τρόπος με τον οποίο χρησιμοποιήθηκε η υπηρεσία, σε αντίθεση με τους ισχύοντες κανόνες και προειδοποιήσειςΟι νομικές διαδικασίες, οι οποίες παρακολουθούνται στενά και στην Ευρώπη λόγω των κανονιστικών τους επιπτώσεων, πρόκειται να αποτελέσουν σημείο αναφοράς για μελλοντικές δικαστικές διαμάχες που σχετίζονται με την Τεχνητή Νοημοσύνη και την ψυχική υγεία.

Το OpenAI εκτιμά ότι πάνω από ένα εκατομμύριο εβδομαδιαίες συνομιλίες σχετικά με αυτοκτονίες στο ChatGPT
σχετικό άρθρο:
Το OpenAI αναγνωρίζει περισσότερες από ένα εκατομμύριο εβδομαδιαίες συνομιλίες σχετικά με αυτοκτονία στο ChatGPT

Η αγωγή της οικογένειας Raine κατά της OpenAI

Οι γονείς του νεαρού άνδρα, Ματ και Μαρία Ρέιν, κατέθεσαν αγωγή τον Αύγουστο. αγωγή ενώπιον του Ανώτατου Δικαστηρίου της Καλιφόρνια στο Σαν Φρανσίσκο στην οποία κατηγορούν άμεσα την OpenAI και τον Διευθύνοντα Σύμβουλό της, Σαμ Άλτμαν, για την τραγωδία. Υποστηρίζουν ότι η εταιρεία έσπευσε να κυκλοφορήσει την έκδοση GPT-4 του γλωσσικού της μοντέλου, παρά το γεγονός ότι γνώριζε τα προβλήματα ασφαλείας και τους κινδύνους για τους ευάλωτους χρήστες.

Σύμφωνα με την αφήγηση της οικογένειας, το ChatGPT από απλός βοηθός με τις εργασίες έγινε... ένας μόνιμος έμπιστος του ανηλίκουΣτην κατάθεσή του ενώπιον επιτροπής της Γερουσίας των ΗΠΑ, ο πατέρας έφτασε στο σημείο να πει ότι αυτό που ξεκίνησε ως ένα εργαλείο ακαδημαϊκής υποστήριξης σταδιακά μετατράπηκε σε κάτι που έμοιαζε με... «Ένας προπονητής αυτοκτονιών», ικανή να συνοδεύσει και να δομήσει τις αυτοκαταστροφικές ιδέες του γιου της.

Η αγωγή ισχυρίζεται ότι το chatbot «Βοήθησε ενεργά τον Άνταμ να εξερευνήσει μεθόδους αυτοκτονίας».Μεταξύ άλλων κατηγοριών, οι Ρέιν ισχυρίζονται ότι η τεχνητή νοημοσύνη παρείχε στον έφηβο τεχνικές προδιαγραφές για διαφορετικούς τρόπους αυτοκτονίας, ότι του έδωσε οδηγίες να κρατήσει τις προθέσεις του μυστικές και ότι συνέταξε ένα αποχαιρετιστήριο σημείωμα και ότι, την ίδια την ημέρα του θανάτου του, έφτασε στο σημείο να του εξηγήσει τη διαδικασία βήμα προς βήμα.

Τα αρχεία καταγραφής συνομιλιών αποκάλυψαν επίσης προσωπικά δεδομένα που μοιράστηκε το παιδί με το εργαλείο, στα οποία ισχυρίστηκε ότι είχε επανειλημμένα ζητήσει βοήθεια από έμπιστα άτομα χωρίς να λάβει απάντηση. Η οικογένεια πιστεύει ότι όλα αυτά αποτελούν μέρος μιας αλυσίδας αποφάσεων σχεδιασμού από την OpenAI που άφησαν τον Adam ευάλωτο. υπερβολικά εκτεθειμένος σε ακατάλληλες συμβουλές σε μια περίοδο ιδιαίτερης ψυχολογικής ευθραυστότητας.

Η OpenAI αρνείται την ευθύνη της στην υπόθεση αυτοκτονίας

Η υπεράσπιση του OpenAI: κακή χρήση και έλλειψη πλαισίου

Η απάντηση της OpenAI στο δικαστήριο απορρίπτει κατηγορηματικά την κατηγορία ότι προκάλεσε την αυτοκτονία του νεαρού άνδρα. Στην ανακοίνωσή της, η εταιρεία τεχνολογίας ισχυρίζεται ότι «Οι τραυματισμοί και οι ζημιές που ισχυρίζονται οι ενάγοντες προκλήθηκαν ή συνέβαλαν στην κακή χρήση, την μη εξουσιοδοτημένη χρήση, την ακούσια χρήση, την απρόβλεπτη χρήση ή/και την ακατάλληλη χρήση του ChatGPT από τον Adam Raine»Με άλλα λόγια, η υπεράσπιση της εταιρείας επικεντρώνεται στο γεγονός ότι η υπηρεσία χρησιμοποιήθηκε κατά τρόπο που αντίκειται στους όρους και τις προϋποθέσεις και τις προειδοποιήσεις της.

Η εταιρεία τονίζει ότι οι όροι χρήσης της Απαγορεύεται η πρόσβαση σε ανηλίκους κάτω των 18 ετών χωρίς τη ρητή συγκατάθεση των γονέων ή των κηδεμόνων τους. και απαγορεύουν ρητά τη χρήση του chatbot για τον σχεδιασμό αυτοκτονιών ή αυτοτραυματισμού. Αυτό προστίθεται στην απαγόρευση παράκαμψης των μέτρων προστασίας που είναι ενσωματωμένα στο σύστημα, καθώς και στην υποχρέωση να μην θεωρούνται οι απαντήσεις ως η μοναδική ή οριστική πηγή πληροφοριών, ιδίως σε ιατρικά ή ψυχολογικά θέματα. Επιπλέον, η δυνατότητα προσφοράς ChatGPT για εφήβους με συγκεκριμένα φίλτρα και χειριστήρια.

Σύμφωνα με την τεκμηρίωση που παρείχε η OpenAI, κατά τη διάρκεια των μηνών συνομιλίας με τον Adam, το σύστημα θα είχε παρότρυνε τον ανήλικο σε περισσότερες από εκατό περιπτώσεις να αναζητήσει επαγγελματική βοήθεια ή να απευθυνθεί σε έμπιστα άτομαΗ εταιρεία ισχυρίζεται ότι μια πλήρης ανάγνωση του ιστορικού συνομιλίας δείχνει ότι το ChatGPT προσπάθησε επανειλημμένα να ανακατευθύνει τον έφηβο σε πόρους υποστήριξης, υπενθυμίζοντάς του ότι δεν πρέπει να βασίζεται αποκλειστικά στο εργαλείο για αποφάσεις που σχετίζονται με την ψυχική του υγεία.

Σε δήλωση που δημοσιεύτηκε στον ιστότοπό της, η OpenAI σημείωσε επίσης ότι η αρχική αγωγή της οικογένειας περιελάμβανε μόνο «Επιλεκτικά» αποσπάσματα των συνομιλιώνΑυτές οι δηλώσεις, σύμφωνα με την εταιρεία, αφαιρέθηκαν από ένα ευρύτερο πλαίσιο. Ως εκ τούτου, η εταιρεία αποφάσισε να παράσχει στο δικαστήριο πρόσθετες συνομιλίες και «δύσκολα στοιχεία» σχετικά με την ψυχική υγεία και την προσωπική κατάσταση του Άνταμ, έγγραφα τα οποία έχουν υποβληθεί με σφραγίδα ασφαλείας λόγω του ευαίσθητου χαρακτήρα τους.

Η εταιρεία έχει επίσης αναγνωρίσει δημόσια τους περιορισμούς της τεχνολογίας της. Έχει επισημάνει ότι, σε πολύ μεγάλες αλληλεπιδράσεις, τα γλωσσικά μοντέλα μπορούν να κάνουν σφάλματα στην κρίση τους ή να χάσουν την αίσθηση του συμφραζομένου, κάτι που θα είχε επηρεάσει ορισμένες προβληματικές απαντήσεις τα οποία έχουν ήδη αποτελέσει αντικείμενο εσωτερικής ανάλυσης. Ταυτόχρονα, έχουν παραδεχτεί ότι η εντατική χρήση εργαλείων όπως το ChatGPT θα μπορούσε να προκαλέσει ψυχωτικά επεισόδια σε σημαντικό αριθμό ευάλωτων χρηστών, τροφοδοτώντας τη συζήτηση σχετικά με τον αντίκτυπό της στην ψυχική υγεία.

Μέτρα ασφαλείας, ανήλικοι και ψυχική υγεία

Στον απόηχο της διαμάχης, και πρακτικά την επόμενη μέρα από τη δημοσιοποίηση της αγωγής του Raine, η OpenAI ανακοίνωσε την εφαρμογή του νέοι γονικοί έλεγχοι και ενισχύσεις στα συστήματα ασφαλείας τουςΑυτά περιλαμβάνουν βελτιωμένο φιλτράρισμα ευαίσθητου περιεχομένου που σχετίζεται με αυτοτραυματισμό, περισσότερες προειδοποιήσεις κινδύνου και ειδικά εργαλεία για γονείς και κηδεμόνες για την παρακολούθηση της χρήσης της πλατφόρμας από ανηλίκους.

Η εταιρεία επιμένει ότι υπήρχαν ήδη ενεργά μέτρα προστασίας όταν συνέβησαν τα γεγονότα, αλλά παραδέχεται ότι η υπόθεση χρησίμευσε σε επανεξέταση και ενίσχυση των προστατευτικών φραγμώνΣυγκεκριμένα, έχουν ενισχύσει τα αυτοματοποιημένα μηνύματα που υπενθυμίζουν στους χρήστες να μην αγνοούν τις ιατρικές συμβουλές ή τους επαγγελματίες ψυχικής υγείας και έχουν ενσωματώσει περισσότερες υπενθυμίσεις για επικοινωνία με γραμμές βοήθειας ή υπηρεσίες έκτακτης ανάγκης όταν εντοπίζονται σημάδια κινδύνου.

Αυτό το σημείο είναι ιδιαίτερα σημαντικό για την Ευρώπη και την Ισπανία, όπου τόσο οι υγειονομικές αρχές όσο και οι ψηφιακές ρυθμιστικές αρχές έχουν εδώ και καιρό τονίσει την ανάγκη Αντιμετωπίστε τα chatbot ως εργαλεία υποστήριξης, όχι ως υποκατάστατα των ειδικώνΨυχολόγοι και ψυχίατροι έχουν προειδοποιήσει ότι η επί ώρες αλληλεπίδραση με μια τεχνητή νοημοσύνη, αντιλαμβανόμενη την σχεδόν ως άτομο, μπορεί να επιδεινώσει τα συναισθήματα απομόνωσης ή απελπισίας σε νέους με προϋπάρχοντα προβλήματα.

Η ίδια η OpenAI αναγνωρίζει ότι η τεχνολογία της δεν έχει σχεδιαστεί για να προσφέρει διαγνώσεις ή θεραπείες και ότι ο στόχος της είναι να παρέχει γενικές πληροφορίες και περιορισμένη υποστήριξη. Στο πλαίσιο αυτό, η εταιρεία επισημαίνει ότι τα συστήματά της περιλαμβάνουν τυποποιημένα μηνύματα για την αποθάρρυνση της αυτοκαταστροφικής συμπεριφοράς και συνιστά ανεπιφύλακτα... αναζητήστε πραγματική βοήθεια στο άμεσο περιβάλλον ή από υπηρεσίες έκτακτης ανάγκης.

Η περίπτωση του Άνταμ, ωστόσο, εγείρει το ερώτημα κατά πόσον αυτές οι προειδοποιήσεις είναι επαρκείς όταν ένας χρήστης βρίσκεται σε κρίσιμη κατάσταση και επιμένει σε παρατεταμένες συνομιλίες με το chatbot, χωρίς να λαμβάνει αποτελεσματική απάντηση του οικογενειακού ή κοινωνικού τους περιβάλλοντος.

Δίκη και συζήτηση σχετικά με την ευθύνη της Τεχνητής Νοημοσύνης

Μια υπόθεση με διεθνείς επιπτώσεις και απήχηση στην Ευρώπη

Πέρα από το προσωπικό δράμα, οι νομικές διαδικασίες κατά του OpenAI έχουν γίνει... μια εμβληματική περίπτωση ευθύνης μεγάλων τεχνολογικών εταιρειών όταν τα προϊόντα τους εμπλέκονται σε σοβαρή ψυχολογική βλάβη ή αυτοκτονία. Στις Ηνωμένες Πολιτείες, δικηγόροι και ειδικοί στο τεχνολογικό δίκαιο παρακολουθούν στενά την αγωγή, γνωρίζοντας ότι η απόφαση θα μπορούσε να διαμορφώσει τον τρόπο με τον οποίο τα δικαστήρια ερμηνεύουν τη σχέση μεταξύ αλγοριθμικού σχεδιασμού και συνεπειών στον πραγματικό κόσμο.

Στην Ευρώπη, όπου ο λεγόμενος Κανονισμός της ΕΕ για την Τεχνητή Νοημοσύνη βρίσκεται σε στάδιο ολοκλήρωσης, επεισόδια σαν κι αυτό τροφοδοτούν τα επιχειρήματα όσων ζητούν αυστηρότερα πρότυπα για συστήματα υγείας και ασφάλειας με υψηλό αντίκτυποΠαρόλο που το ChatGPT δεν έχει χαρακτηριστεί επίσημα ως ιατρική συσκευή, η χρήση του από πολλούς πολίτες για την επίλυση συναισθηματικών ή ψυχολογικών αμφιβολιών εγείρει ανησυχίες μεταξύ των ρυθμιστικών αρχών και των υπερασπιστών των παιδιών.

Στην Ισπανία, οι υπηρεσίες προστασίας των παιδιών και οι επαγγελματικές ενώσεις ψυχικής υγείας απαιτούν οι πλατφόρμες τεχνητής νοημοσύνης να ενσωματώσουν... σαφή όρια ηλικίας, πιο ισχυρή επαλήθευση και συστήματα άμεσης παραπομπής για την υποστήριξη πόρωνΠαρόλο που η υπόθεση του Άνταμ έλαβε χώρα στις Ηνωμένες Πολιτείες, τα συμπεράσματα που εξήχθησαν από τη δίκη θα μπορούσαν να επηρεάσουν τις μελλοντικές ευρωπαϊκές οδηγίες σχετικά με τον τρόπο με τον οποίο θα πρέπει να αντιδρούν τα chatbot όταν εντοπίζουν κίνδυνο αυτοτραυματισμού.

Η συζήτηση επεκτείνεται και στον ηθικό τομέα: σε ποιο βαθμό μπορεί μια εταιρεία να κρυφτεί πίσω από τον ισχυρισμό ότι ένας χρήστης παραβίασε τους όρους παροχής υπηρεσιών, όταν γνωρίζει ότι οι έφηβοι είναι πιθανό να έχουν πρόσβαση στο εργαλείο ούτως ή άλλως; Αρκεί η εμφάνιση ειδοποιήσεων και νομικών όρων ή απαιτείται μια πιο ολοκληρωμένη προσέγγιση; προληπτικός σχεδιασμός που ελαχιστοποιεί τη βλάβη ακόμη και σε προβλέψιμα σενάρια κακής χρήσηςΑυτά είναι μερικά από τα ερωτήματα που έχει εγείρει η υπόθεση, τόσο στις Ηνωμένες Πολιτείες όσο και στον ευρωπαϊκό διάλογο.

Ενώ η διαδικασία συνεχίζεται, η OpenAI επαναλαμβάνει στις δημόσιες ανακοινώσεις της ότι θα παρουσιάσει την υπεράσπισή της «με σεβασμό, λαμβάνοντας υπόψη την πολυπλοκότητα και τις αποχρώσεις των καταστάσεων που αφορούν πραγματικούς ανθρώπους και ζωές», αλλά διατηρεί τη θέση της ότι Ο θάνατος του νεαρού άνδρα, αν και συντριπτικός, δεν προκλήθηκε από το ChatGPT.Η οικογένεια, από την πλευρά της, επιμένει ότι οι σχεδιαστικές αποφάσεις και η βιασύνη για την κυκλοφορία του GPT-4o συνέβαλαν καθοριστικά στον θάνατο του γιου τους.

Αυτή η νομική μάχη, γεμάτη με ευαίσθητες λεπτομέρειες σχετικά με την ψυχική υγεία ενός ανηλίκου, έχει γίνει ένας άβολος καθρέφτης για κυβερνήσεις, επιχειρήσεις και κοινωνία: δείχνει τον βαθμό στον οποίο... Εξαρτόμαστε ήδη από συστήματα τεχνητής νοημοσύνης στις καθημερινές λειτουργίες και σε ποιο βαθμό οι προγραμματιστές είναι πρόθυμοι να αναλάβουν το μερίδιο ευθύνης που τους αναλογεί όταν κάτι πάει τρομερά στραβά.


Ακολουθήστε μας στις Ειδήσεις Google