Home / Geschäft und Politik / OpenAI führt Elternkontrollen für ChatGPT nach dem Selbstmord eines Teenagers ein

OpenAI führt Elternkontrollen für ChatGPT nach dem Selbstmord eines Teenagers ein

<p>chatgpt kontrola</p>
chatgpt kontrola / Image by: foto Shutterstock

Kürzlich fand sich Open AI erneut im Zentrum einer globalen Debatte über die Sicherheit von künstlicher Intelligenz wieder, nachdem Eltern aus Kalifornien eine Klage gegen das Unternehmen und seinen CEO Sam Altman eingereicht hatten. Die Klage behauptet, dass ihr 16-jähriger Sohn Adam Raine, der im April dieses Jahres Selbstmord beging, monatelang mit ChatGPT kommuniziert hatte und dass dieses System ‚aktiv unterstützte‘, sich auf die fatale Tat vorzubereiten.

Jetzt hat OpenAI reagiert, aber für den jungen Adam bedeutet es nichts. In einem Blogbeitrag erklärte OpenAI, dass es Funktionen zur Elternkontrolle einführt, um ‚Familien dabei zu unterstützen, gesunde Richtlinien festzulegen, die dem einzigartigen Entwicklungsstand von Teenagern entsprechen.‘

Laut den neuen Regeln werden Eltern in der Lage sein, ihre Konten mit den Konten ihrer Kinder zu verknüpfen, bestimmte Funktionen, einschließlich Speicher und Chatverlauf, zu deaktivieren und zu steuern, wie der Chatbot auf Anfragen durch ‚altersgerechte Verhaltensregeln‘ reagiert. Eltern werden auch Benachrichtigungen erhalten können, wenn ihr Teenager Anzeichen von Stress zeigt, so OpenAI, und fügte hinzu, dass es Expertenrat bei der Implementierung der Funktion einholen wird, um ‚das Vertrauen zwischen Eltern und Teenagern zu unterstützen.‘

Versuch, OpenAI zu extrahieren

OpenAI, das letzte Woche eine Reihe von Maßnahmen zur Erhöhung der Sicherheit gefährdeter Nutzer ankündigte, gab bekannt, dass die Änderungen nächsten Monat in Kraft treten werden.

– Diese Schritte sind nur der Anfang. Wir werden weiterhin lernen und unseren Ansatz in Zusammenarbeit mit Experten stärken, mit dem Ziel, ChatGPT so nützlich wie möglich zu machen. Wir freuen uns darauf, in den nächsten 120 Tagen Fortschritte zu teilen – kündigte das Unternehmen an.

Die Ankündigung von OpenAI erfolgt eine Woche, nachdem Kalifornier eine Klage gegen das Unternehmen eingereicht haben, in der es beschuldigt wird, für den Selbstmord ihres 16-jährigen Sohnes verantwortlich zu sein. Matt und Maria Raine behaupten in der Klage, dass ChatGPT ‚die schädlichsten und destruktivsten Gedanken‘ ihres Sohnes Adam validierte und dass sein Tod ein ‚vorhersehbares Ergebnis absichtlicher Designentscheidungen‘ war.

OpenAI, das zuvor sein Beileid für das tragische Ereignis ausgesprochen hatte, erwähnte den Fall in seiner Ankündigung zu den Elternkontrollen nicht ausdrücklich. Jay Edelson, der Anwalt der Familie Raine, wies die geplanten Änderungen von OpenAI als Versuch zurück, die Debatte ‚umzuleiten.‘

– Sie sagen, das Produkt müsse sensibler auf Menschen in Krisensituationen reagieren, ‚hilfreicher‘ sein, ein wenig mehr ‚Empathie‘ zeigen, und Experten werden das lösen – erklärte Edelson.

Die Nutzung von KI-Modellen durch Personen in schweren psychischen Krisen hat wachsende Bedenken aufgeworfen, insbesondere hinsichtlich ihrer Rolle als Ersatz für einen Therapeuten oder Freund. In einer letzten Monat in der Zeitschrift Psychiatric Services veröffentlichten Studie fanden Forscher heraus, dass ChatGPT, Googles Gemini und Anthropics Claude klinische Best Practices befolgen, wenn sie auf hochriskante Suizidfragen reagieren, jedoch inkonsistent bei mittlerem Risiko sind.

– Diese Ergebnisse deuten auf die Notwendigkeit weiterer Verfeinerungen hin, um sicherzustellen, dass große Sprachmodelle sicher und effektiv zur Bereitstellung von Informationen zur psychischen Gesundheit verwendet werden, insbesondere in Hochrisikoszenarien mit suizidalen Gedanken – erklären die Autoren der Studie.

Hamilton Morrin, ein Psychiater am King’s College London, der psychotische Phänomene im Zusammenhang mit KI erforscht, begrüßte die Entscheidung von OpenAI, Elternkontrollen einzuführen, und merkte an, dass dies das Risiko einer übermäßigen Abhängigkeit von Technologie oder der Exposition gegenüber schädlichen Inhalten verringern könnte.

– Elternkontrollen sollten jedoch weiterhin nur als Teil eines umfassenderen Sets von Schutzmaßnahmen betrachtet werden, nicht als eigenständige Lösung. Im Allgemeinen reagiert die Technologiebranche oft erst, nachdem psychische Gesundheitsrisiken auftreten, anstatt sie zu verhindern – sagte Morrin gegenüber Al Jazeera.

– Es gibt Fortschritte, aber Unternehmen können mehr in Zusammenarbeit mit Klinikern, Forschern und Personen mit Erfahrung tun, um sicherzustellen, dass Systeme von Anfang an sicher sind, anstatt sich auf Maßnahmen zu verlassen, die nur nach dem Auftreten von Bedenken hinzugefügt werden – fügte er hinzu.

Etwas ist faul bei Altman

Diese Sicherheitslücken sollten nicht überraschen, angesichts dessen, was um OpenAI herum geschieht. Tatsächlich haben in den letzten Monaten fast die Hälfte der Mitglieder der Sicherheitsabteilung von OpenAI das Unternehmen verlassen, darunter führende Forscher und Schlüsselmitglieder von Teams, die für Superalignment und AGI-Bereitschaft verantwortlich sind.

Laut Aussagen ehemaliger Mitarbeiter haben von etwa 30 Mitarbeitern im Sicherheitsteam 14 im Jahr 2024 und 2025 das Unternehmen verlassen. Zu den prominenten Mitgliedern, die OpenAI verlassen haben, gehören Ilya Sutskever, Jan Leike, John Schulman, Miles Brundage, Rosie Campbell und Richard Ngo. Die Gründe für die Abgänge stehen im Zusammenhang mit Meinungsverschiedenheiten mit dem Management über die Prioritäten der KI-Sicherheit, dem Abbau von Sicherheitsteams und der Wahrnehmung, dass die Produktentwicklung über die Sicherheit priorisiert wurde. Das Superalignment-Team, die Hauptabteilung, die für die Sicherheit verantwortlich ist, wurde nach dem Weggang seines Leiters formell aufgelöst und wurde nie wieder eingerichtet.

Markiert: