Künstliche Intelligenz. Wer haftet, wenn die Maschine Fehler macht, Rechte anderer verletzt, Straftaten begeht?
- 15.11.2019
- Juristen versuchen komplexe Sachverhalte dadurch zu bewältigen, indem sie diese in bekannte Einzelteile zerlegen. Die Frage besteht im Kern aus drei Teilen: Künstliche Intelligenz (KI), Verletzung und Haftung. KI ist eine Software, die komplexe Aufgaben sehr schnell und mit höchster Zuverlässigkeit meistert. Aber KI kann keine Entscheidungen treffen, nur ausführen. Die autonomen Entscheidungen liegen immer bei dem Menschen, der sie einsetzen, aber auch stoppen kann. Das zweite Element ist der Fehler, der zu einem Schaden führt, etwa einen Menschen verletzt oder eine Sache beschädigt. Wird ein fremdes Recht beeinträchtigt, ordnet das Zivilrecht gegebenenfalls die Zahlung von Schadenersatz an; strafrechtlich droht eine Geld- oder Freiheitsstrafe. Gemeinsam ist aber bei beiden die Frage, ob wir jemanden für den Fehler verantwortlich machen. Wenn ein Fehler zu einem Schaden führt, etwa, weil das Einparksystem ein Hindernis nicht erkennt, fragt man schnell, wer für den Schaden einzustehen hat. Hierfür gilt nach wie vor die – sehr unpopuläre – Regel: im Zweifel niemand. Wenn Sie eine Schramme in Ihr Auto gefahren haben, lautet die unerfreuliche Antwort, dass Ihr Vermögen sich vermindert hat. Wenn jemand stürzt, hat sich sein allgemeines Lebensrisiko verwirklicht. Es ist grundsätzlich niemand dafür verantwortlich. Es sei denn – und das ist die entscheidende Ausnahme –, es gibt eine Rechtsnorm, die das Risiko abweichend verteilt. Das bringt uns zum dritten Teil: Haftung bedeutet, dass jemand für einen fremden Schaden einstehen muss. Dafür gibt es im Kern drei Rechtfertigungen: ein vertragliches Versprechen (Versicherung), ein Fehlverhalten (Verschuldenshaftung) oder die Nutzung einer gefährlichen Sache, bei der man nicht nur die Vorteile ernten kann, sondern auch die Nachteile in Kauf nehmen muss (Gefährdungshaftung). Aus diesen drei Teilen ergibt sich folgende Antwort: 1. Eine KI hat keinen eigenen Willen. Sie ist kein Rechtssubjekt und haftet daher nicht selbst – das wäre auch sinnlos, weil eine KI kein Vermögen hat und sich vor dem Gefängnis bestimmt nicht fürchtet. 2. Bei der Nutzung von KI können viele Fehler auftreten. Entsteht dadurch ein Schaden, so trägt ihn grundsätzlich derjenige, dessen Rechtsgut beeinträchtigt wurde, außer die Rechtsordnung weist das Risiko jemand anderem zu. 3. Als Grund für eine Haftung kommt neben der fehlerhaften Nutzung auch in Betracht, dass die KI fehlerhaft programmiert wurde. Aber auch der Hersteller haftet grundsätzlich nur für eigenes Verschulden und nur für Schäden, die überhaupt vorstellbar sind. Das klingt kompliziert. Dass Ihnen diese Grundregel aber gut vertraut ist, zeigt sich, wenn wir die KI durch einen Hund ersetzen: Wenn ein Hund ein Kind in die Hand beißt, ist es selbstverständlich, dass der Halter (und nicht der Hund) haftet. Warum eigentlich? Er haftet natürlich, wenn er seinem Hund keinen Maulkorb angelegt hat, obwohl er dazu verpflichtet war (Verschuldenshaftung); aber auch wenn sein zahmer Dackel aus heiterem Himmel zugebissen hat; nicht, weil er etwas falsch gemacht hat, sondern weil er Hundehalter ist (Gefährdungshaftung). Dahinter steckt folgende Überlegung: Niemand muss einen Hund halten. Wer es dennoch tut, muss das Risiko tragen, dass der Hund einen Schaden anrichtet. Der Hund ist zivilrechtlich eine Gefahr, für die der Halter einzustehen hat. Einen relevanten Unterschied zwischen Hund und KI gibt es allerdings: Während man für sein Verschulden immer haftet, gibt es eine Gefährdungshaftung nur dort, wo ein Gesetz sie explizit anordnet, beispielsweise für den Kfz- oder Hundehalter. Aktuell gibt es noch keine Gefährdungshaftung für KI – das könnte sich aber natürlich schnell ändern.