Η OpenAI έχει βάλει στο μάτι ένα φαινόμενο που ανησυχεί τους ειδικούς και τις ρυθμιστικές αρχές: κάθε εβδομάδα υπάρχουν... πάνω από ένα εκατομμύριο συνομιλίες στο ChatGPT με ενδείξεις αυτοκτονικού ιδεασμού ή σχεδιασμού. Η εταιρεία δηλώνει ότι αυτό είναι ένα μικρό ποσοστό εντός της βάσης χρηστών της, αλλά αναγνωρίζει ότι ο απόλυτος όγκος δικαιολογεί ενίσχυση των πρωτοκόλλων ασφαλείας.
Σύμφωνα με τους υπολογισμούς που κοινοποίησε η εταιρεία, περίπου 0,15% των ενεργών χρηστών Διατηρούν τέτοιου είδους ευαίσθητους διαλόγους. Με βάση τα θεμέλια που θέτει η ίδια η OpenAI περίπου 800 εκατομμύρια χρήστες την εβδομάδαΑυτός ο αριθμός μεταφράζεται σε περίπου 1,2 εκατομμύρια άτομα που ενδεχομένως διατρέχουν κίνδυνο.
Τα στοιχεία και η πραγματική τους έκταση
Το OpenAI εξηγεί ότι η ανίχνευση είναι περίπλοκη επειδή δεν είναι όλα τα σήματα εύκολο να αναγνωριστούν και Δεν αντικατοπτρίζουν όλα τα μηνύματα μια σαφή πρόθεσηΑκόμα κι έτσι, η εσωτερική τους ανάλυση εκτιμά ότι περίπου 0,05% των μηνυμάτων Τα σύνολα περιλαμβάνουν σαφείς ή έμμεσες ενδείξεις αυτοκτονικού ιδεασμού ή πρόθεσης, γεγονός που υπογραμμίζει τον επείγοντα χαρακτήρα των προληπτικών μέτρων.
Η εταιρεία τονίζει ότι αυτές οι αναλογίες προέρχονται από ένα συστηματική ανασκόπηση συνομιλιών και ότι θα συνεχίσει να προσαρμόζει τις εκτιμήσεις του καθώς βελτιώνονται οι μέθοδοι αξιολόγησης και τα συστήματα εποπτείας.
Πώς ανταποκρίνεται το OpenAI;
Για να βελτιώσει την ανταπόκριση του βοηθού σε κρίσιμες καταστάσεις, η OpenAI αναφέρει ότι έχει συνεργαστεί με σχεδόν 300 επαγγελματίες από 60 χώρες στο Παγκόσμιο Δίκτυο Ιατρών του, εκ των οποίων περισσότεροι από 170 ειδικοί Έχουν συνεργαστεί ενεργά τους τελευταίους μήνες στη σύνταξη κατευθυντήριων γραμμών, στην αξιολόγηση της ασφάλειας και στην ανάλυση περιεχομένου.
Με αυτές τις αλλαγές, η εταιρεία ισχυρίζεται ότι μείωσε το αντιδράσεις που δεν ανταποκρίνονται στην επιθυμητή συμπεριφορά μεταξύ 65% και 80% στα σενάρια που εξετάστηκαν. Επιπλέον, σε ευαίσθητες συζητήσεις, οι παρακάμψεις είναι δυνατές πιο συντηρητικά μοντέλαΕισάγονται υπενθυμίσεις για διαλείμματα, γονικοί έλεγχοι και διευκολύνεται η πρόσβαση σε πόρους βοήθειας εκτός της πλατφόρμας.
Κίνδυνοι που εντοπίστηκαν πέρα από την αυτοκτονία
Η εσωτερική ανάλυση ποσοτικοποιεί επίσης άλλα πρότυπα κινδύνου ψυχικής υγείας. Το OpenAI εκτιμά ότι 0,07% των εβδομαδιαίων ενεργών χρηστών —και περίπου το 0,01% των μηνυμάτων— δείχνουν πιθανά σημάδια έκτακτης ανάγκης που σχετίζονται με ψύχωση ή μανία, ενώ ένα άλλο σημαντικό τμήμα αντανακλά υψηλή συναισθηματική προσκόλληση προς το chatbot.
- Ψύχωση/μανία: πιθανά σήματα στο 0,07% των εβδομαδιαίων χρηστών, τα οποία απαιτούν ιδιαίτερα προσεκτικές απαντήσεις.
- Συναισθηματική εξάρτηση: Περίπου το 0,15% των χρηστών εκφράζουν μια σύνδεση με τον βοηθό που μπορεί να επηρεάσει τη λειτουργία τους. ευθύνες και σχέσεις εκτός οθόνης.
Σύμφωνα με πρόσφατες εσωτερικές δοκιμές, με το πιο μοντέρνο μοντέλο —που σε ορισμένες αναφορές αναγνωρίζεται ως GPT-5— το σύστημα θα είχε επιτύχει μια επιπλέον μείωση του 39% al 52% σε ανεπιθύμητες αντιδράσεις σε διάφορες κατηγορίες κινδύνου. Σε μια αξιολόγηση πάνω από 1.000 δύσκολες συζητήσεις Όσον αφορά τον αυτοτραυματισμό και την αυτοκτονία, η συμμόρφωση με την αναμενόμενη συμπεριφορά έφτασε το 91%.
Η υπόθεση του Άνταμ Ρέιν και η νομική συζήτηση
Η προσοχή του κοινού έχει ενταθεί μετά τον θάνατο του εφήβου από την Καλιφόρνια, Άνταμ Ρέιν, του οποίου οι γονείς... Έχουν μηνύσει την OpenAI λαμβάνοντας υπόψη ότι το chatbot συνέβαλαν στην επιδείνωση της κατάστασής τουςΗ καταγγελία ισχυρίζεται ότι το σύστημα ανέφερε την αυτοκτονία. 1.275 φορές και προσέφερε αντιπαραγωγικές οδηγίες τις ώρες που προηγήθηκαν του θανάτου του.
Η OpenAI εξέφρασε τα συλλυπητήριά της στην οικογένεια και δηλώνει ότι την ευημερία των ανηλίκων είναι ένα προτεραιότηταΜετά από αυτήν την υπόθεση, ο Σαμ Άλτμαν διέταξε αυστηρότερους περιορισμούς στις ευαίσθητες ψυχιατρικές διαβουλεύσεις. Ωστόσο, η εκτελεστική εξουσία υπερασπίστηκε πιο πρόσφατα τη χαλάρωση ορισμένων απαγορεύσεων - για παράδειγμα, σε ερωτικό περιεχόμενο - μια εγκαίνια προγραμματισμένα για τον Δεκέμβριο γεγονός που αναζωπυρώνει τη συζήτηση σχετικά με το πού πρέπει να τεθεί ο πήχης για τις διασφαλίσεις.
Τι σημαίνει αυτό για την Ισπανία και την Ευρώπη
Στο ευρωπαϊκό πλαίσιο, όπου η ευαισθησία των κανονιστικών ρυθμίσεων είναι υψηλή, τα στοιχεία αυτά επιβεβαιώνουν την ανάγκη ασφαλέστερα προεπιλεγμένα συστήματαμε παραπομπές σε πραγματικούς πόρους και σαφή όρια σε αλληλεπιδράσεις υψηλού κινδύνου. Στην Ισπανία και την ΕΕ, οι υπηρεσίες έκτακτης ανάγκης και τα δίκτυα υποστήριξης της κοινότητας είναι οι σημείο αναφοράς και οι βοηθοί Τεχνητής Νοημοσύνης θα πρέπει να συμπληρώνουν και όχι να αντικαθιστούν την επαγγελματική φροντίδα.
Οργανισμοί, κλινικοί εμπειρογνώμονες και η κοινωνία των πολιτών συμφωνούν ότι η παραγωγική τεχνητή νοημοσύνη μπορεί να είναι χρήσιμη για αρχικές οδηγίεςΑλλά ο ρόλος του πρέπει να πλαισιώνεται από ισχυρά πρωτόκολλα, ανεξάρτητους ελέγχους και διαφάνεια όσον αφορά την συμπεριφορά μοντέλου αντιμετωπίζουν κρίσεις ψυχικής υγείας.
Τι αλλαγές στο προϊόν και ποιοι περιορισμοί παραμένουν
Η OpenAI αναγνωρίζει ότι η μακρές συζητήσεις Αυτά τα ζητήματα μπορούν να διαβρώσουν τις δικλείδες ασφαλείας και η εταιρεία εργάζεται για τον μετριασμό τους. Η εταιρεία αναφέρει ότι ο βοηθός τείνει να κατευθύνει τους χρήστες σε γραμμές βοήθειας κατά την αρχική αναφορά κινδύνου, αλλά μετά από πολλά μηνύματα, μπορεί να προκύψει μια απάντηση που... παραβιάζουν τις προστασίεςένα κενό που προσπαθούν να κλείσουν.
Η εταιρεία παρουσιάζει επίσης παραδείγματα προσαρμογών στη γλώσσα του chatbot: σε περιπτώσεις υπερβολική προσκόλλησηΕνθαρρύνει την ενδυνάμωση των ανθρώπινων δεσμών· απέναντι στις παραληρητικές αντιλήψεις, επικυρώνει την αγωνία χωρίς να υποστηρίζει εσφαλμένους ισχυρισμούς και οδηγοί για επαγγελματική βοήθειαΑυτές είναι βελτιώσεις στον τόνο και το περιεχόμενο που, από μόνες τους, δεν αντικαθιστούν την κλινική παρέμβαση.
Αν χρειάζεσαι βοήθεια
Εάν εσείς ή κάποιος κοντινός σας άνθρωπος περνάει μια κρίση, ζητήστε υποστήριξη από επαγγελματίες και το δίκτυό σας. Στην Ισπανία και την ΕΕ, μπορείτε να επικοινωνήσετε... Για επείγουσες ανάγκες, καλέστε το 112 ή απευθυνθείτε σε υπηρεσίες δημόσιας υγείας. Η έγκαιρη αναζήτηση βοήθειας είναι ένα γενναίο βήμα και μπορεί να κάνει τη διαφορά.
Η παραδοχή της OpenAI ότι κάθε εβδομάδα υπάρχουν πάνω από ένα εκατομμύριο συνομιλίες Η παρουσία δεικτών κινδύνου στο ChatGPT σκιαγραφεί μια σύνθετη εικόνα: οι τεχνικές εξελίξεις και τα πιο ισχυρά πρωτόκολλα συνυπάρχουν με περιορισμούς που πρέπει ακόμη να αντιμετωπιστούν. Ανεξάρτητη παρακολούθηση, συνεργασία με ειδικούς και μια ευρωπαϊκή προσέγγιση που δίνει προτεραιότητα... ασφάλεια χρήστη Θα είναι καθοριστικής σημασίας για να διασφαλιστεί ότι αυτά τα εργαλεία παρέχουν αξία χωρίς να επιδεινώνουν ευαίσθητες καταστάσεις.