Ein Schusswaffenangriff an der Florida State University bringt OpenAI vor Gericht – und könnte die gesamte KI-Industrie vor eine neue rechtliche Zeitenwende stellen. Die Klage der Familie Morales ist mehr als ein Einzelfall: Sie testet, ob KI-Unternehmen für die realen Folgen ihrer Systeme zivilrechtlich zur Rechenschaft gezogen werden können.
Klage gegen OpenAI nach Schusswaffenangriff: Droht KI-Anbietern eine neue Haftungswelle?
Die Familie eines bei einem Schusswaffenangriff an der Florida State University getöteten Mannes will ChatGPT-Betreiber OpenAI verklagen. Der Fall könnte Grundsatzfragen zur zivilrechtlichen Verantwortung von KI-Unternehmen aufwerfen – mit weitreichenden Konsequenzen für die gesamte Branche.
Hintergrund: Schusswaffenangriff an der Florida State University
Bei einem Angriff auf dem Campus der Florida State University kam Robert Morales ums Leben. Seine Familie wirft OpenAI vor, dass ChatGPT eine Mitverantwortung an dem Vorfall trägt. Details zur behaupteten Verbindung zwischen der KI-Nutzung und der Tat – etwa ob der Täter das System zur Vorbereitung genutzt haben soll – gehen aus der Klage hervor, die nun in Florida eingereicht wird.
Die Anwälte der Familie argumentieren, OpenAI hätte durch unzureichende Sicherheitsmechanismen eine gefährliche Nutzung des Systems ermöglicht oder begünstigt.
Rechtliche Einordnung: Section 230 und die KI-Haftungsfrage
Zentral für den weiteren Verlauf des Verfahrens ist die Frage, ob OpenAI unter den Schutz von Section 230 des Communications Decency Act fällt – jener US-Regelung, die Plattformbetreiber traditionell vor Haftung für nutzergenerierte Inhalte schützt.
Kritiker argumentieren, dass Large Language Models keine passiven Plattformen sind, sondern aktiv Inhalte generieren – und damit eine andere Haftungslogik gelten müsse.
Vergleichbare Klagen gab es bereits in anderen Kontexten: So wurden KI-Unternehmen für angebliche psychologische Schäden durch Chatbot-Interaktionen verklagt. Der Florida-Fall ist jedoch insofern neu, als er eine direkte Verbindung zwischen KI-Ausgaben und physischer Gewalt herzustellen versucht.
Präzedenzwirkung für die KI-Industrie
Sollte die Klage zugelassen werden und vor Gericht Bestand haben, wäre dies ein Einschnitt für die KI-Branche. Erstmals würde ein US-Gericht prüfen, ob ein KI-Anbieter für die realen Folgen einer mutmaßlich schädlichen Nutzung seines Produkts haftbar gemacht werden kann – vergleichbar mit Produkthaftungsklagen gegen Waffenhersteller oder Pharmaunternehmen.
OpenAI dürfte argumentieren, dass das Unternehmen nicht vorhersehen konnte, wie einzelne Nutzer das System einsetzen. Parallel dazu steht die Frage im Raum, welche Sorgfaltspflichten KI-Entwickler bei der Implementierung von Sicherheitsfiltern und Nutzungsrichtlinien haben.
Die Anwälte der Kläger werden voraussichtlich versuchen zu zeigen, dass bekannte Schwachstellen im System nicht ausreichend adressiert wurden.
Bedeutung für europäische und deutsche Unternehmen
Für deutsche Unternehmen, die KI-Lösungen entwickeln oder einsetzen, hat der Fall unmittelbare Relevanz – auch wenn das Verfahren in den USA geführt wird. Der EU AI Act, der seit 2024 schrittweise in Kraft tritt, legt bereits erheblich strengere Anforderungen an Transparenz, Risikobewertung und menschliche Aufsicht fest als das bisherige US-Recht. Hochrisiko-Anwendungen unterliegen verbindlichen Konformitätsprüfungen.
Das Florida-Verfahren könnte dennoch als Signal wirken: Gerichte weltweit dürften in den kommenden Jahren zunehmend bereit sein, KI-Unternehmen als aktive Akteure und nicht nur als neutrale Infrastrukturbetreiber zu behandeln.
Die Haftungsfrage bei KI ist kein abstraktes Zukunftsthema mehr.
Für deutsche Unternehmen bedeutet das: Compliance-Dokumentation, interne Risikobewertungen und nachvollziehbare Safety-Maßnahmen sind nicht nur regulatorische Pflichtübungen, sondern haben im Zweifel auch zivilrechtliche Schutzfunktion.
Quelle: The Guardian – Florida State University shooting: family of victim to sue ChatGPT maker OpenAI
