digitale Themen, leicht verständlich.

Mensch = KI?

Wer haftet für meine KI, wenn sie meine Aufgaben erledigt?

Geschätzte Lesezeit: ca. 6 Minuten

Foto von Benjamin Krämer

von Benjamin Krämer -

Die Entwicklung von KI-Systemen, die menschliche Aufgaben übernehmen, schreitet rasend schnell voran. Allen voran: Autopiloten, die unsere Autos autonom fahren können. Doch das Problem geht weit über autonomes Fahren hinaus. Immer mehr KIs werden entwickelt, um menschliche Tätigkeiten zu übernehmen und sie machen Fehler, genau wie wir. Wer haftet, wenn etwas schief gegangen ist?

An der ein oder anderen Stelle klang möglicherweise bereits durch, dass ich Elon Musk für eine wichtige Persönlichkeit halte. Ich spiele sogar mit dem Gedanken, mir irgendwann mal einen Tesla zuzulegen – Ehrensache, dass ich im vergangenen Dezember eine Probefahrt gemacht habe. Ich saß also auf dem Fahrersitz, mit einem gut informierten Tesla Mitarbeiter neben mir. Ich freute mich über die brutalen Beschleunigungswerte, das aufgeräumte Design und die Stille, aber all das hatte ich erwartet. Vollkommen überrumpelt hat mich 'Autopilot', das Assistenzsystem für autonomes Fahren.

Der freundliche junge Mann fragte mich, ob ich erleben wolle, wie das Auto (Model X) selbstständig fährt. "Klar", sagte ich, nahm die Füße von den Pedalen und die Hände vom Lenkrad und war die nächsten fünfzehn Minuten stiller Zeuge einer KI, die umgerechnet über 500 PS kontrollierte, während ich Däumchen drehte. Ein unwirkliches Gefühl, das noch dadurch verstärkt wurde, dass der Tesla Mitarbeiter auf die Frage, wer denn hafte, wenn jetzt etwas passierte, keine Antwort kannte.

KI oder Hersteller – wer soll im Schadensfall haften

Roboter tippt auf Tastatur

Was passiert, wenn bald nicht mehr unsere Finger die Tastatur berühren, sondern eine KI viele Aufgaben am PC übernimmt? Wer haftet, wenn sie etwas Illegales tut?  

Quelle: (Mopic)  Shutterstock.com 

Roboter tippt auf Tastatur

Was passiert, wenn bald nicht mehr unsere Finger die Tastatur berühren, sondern eine KI viele Aufgaben am PC übernimmt? Wer haftet, wenn sie etwas Illegales tut?  

Quelle: (Mopic)  Shutterstock.com 

Es ist ein generelles Problem der fortschreitenden KI-Revolution, das an diesem Tag offensichtlich zutage trat. Wenn Algorithmen in Zukunft immer häufiger Aufgaben und Tätigkeiten übernehmen, die sonst aus unserer Hand stammen, wie sieht die rechtliche Grundlage im Fall der Fälle aus? Was ist, wenn mein Auto einen Unfall baut, obwohl ich gar nicht am Steuer war? Was ist, wenn mein Rasenmähroboter eine Fehlfunktion hat, zum Nachbarn fährt und 'aus Versehen' die dort frei herumlaufenden Meerschweinchen zerhäckselt?

Was ist, wenn eine Webcrawler-KI etwas Illegales herunterlädt, was ich nicht in Auftrag gegeben habe? Oder was, wenn eine AR-Brille der Zukunft selbstständig Bilder schießt und damit Persönlichkeitsrechte verletzt? Es gibt unzählige Beispiele für KIs, die in Zukunft menschliche Dinge tun, aber vor dem Gesetz nicht wie Menschen behandelt werden können. Unsere Gesetzbücher sehen schlicht und einfach keine Paragrafen für KIs vor und das wird sich in (naher) Zukunft ändern müssen.

Die Rechtsabteilungen der großen Firmen sind bereits am Ball

Der Versicherungsriese Allianz hat kürzlich einen Report zu dem Thema herausgebracht, der sich intensiv mit der Frage zukünftiger Rechtsstreits mit, beziehungsweise aufgrund von KI-Systemen, beschäftigt. In der Zusammenfassung gehen die Zukunftsforscher des Unternehmens davon aus, dass eine 'Produkthaftungspolice' in Zukunft eine Standardversicherung sein wird. Sie wird unter anderem bei Autofahrern, die Wagen mit Autopilotsystemen besitzen, zur Pflicht werden und ebenso normal sein wie eine Haftpflichtversicherung.

Vorreiter beim autonomen Fahren sind neben Tesla auch Google, Volvo und Daimler, die in der momentanen Übergangsphase mit reichlich rechtlichen Grauzonen kurzerhand verkündet haben, für jeden Schaden, der durch ihre Assistenten entsteht, haften zu wollen. Trotzdem braucht es natürlich ein Regelwerk. Juristisch heikel ist dabei die Frage nach der rechtlichen Bewertung von KIs. Sind sie ein Service, werden sie beispielsweise anders behandelt, als wenn sie als Produkt gesehen werden.

Ist die beste Lösung, KIs wie Menschen zu behandeln?

KIs 1:1 wie Menschen zu behandeln, könnte vieles erleichtern und beschleunigen, lässt aber immer noch Fragen offen, denn KIs besitzen beispielsweise kein Vermögen, um Bußgelder zu bezahlen.

Gabriel Hallevy, Juraprofessor am Ono Academic College in Israel, plädiert in seinem neuen Buch 'When Robots Kill' dafür, KIs, die Aufgaben von Menschen übernehmen, einfach auch als solche vor Gericht zu behandeln. Das hieße: Wenn ein Algorithmus etwas tut, was auch ein Mensch tun kann, haftet er auch. Das könnte dann in etwa so aussehen, dass beispielsweise ein Fahrassistent nach einem Unfall mit Todesfolge für mehrere Jahre abgeschaltet wird, ähnlich einer Gefängnisstrafe, zurück zum Hersteller zur Fehleranalyse und Reparatur (ähnlich einer Resozialisierung) oder ausgeschaltet werden muss (richtig: wie die Todesstrafe).

Das mag erst einmal lächerlich klingen, laut Greenblatt sei dies aber ein naheliegendes Vorgehen, das langwierige und für alle Seiten teure Produkthaftungsverhandlungen verhindern könnte. Bei Geldstrafen wird es dann aber doch haarig bleiben, selbst wenn man so vorginge, da KIs wohl kaum eigenes Geld verdienen werden, egal wie weit man in die Zukunft denkt.

Illegaler Download: Wer ist schuld?

Eine dunkle Katze neben einem Diagramm

Eine Bilderkennungs-KI hält eine Katze mit allerhöchster Wahrscheinlichkeit für Guacamole. Fehler wie diese klingen erst einmal lustig, könnten zukünftig aber riesige Rechtsstreits nach sich ziehen.  

Quelle: (Screenshot / Labsix)  http://www.labsix.org 

Eine dunkle Katze neben einem Diagramm

Eine Bilderkennungs-KI hält eine Katze mit allerhöchster Wahrscheinlichkeit für Guacamole. Fehler wie diese klingen erst einmal lustig, könnten zukünftig aber riesige Rechtsstreits nach sich ziehen.  

Quelle: (Screenshot / Labsix)  http://www.labsix.org 

Gehen wir vom Beispiel der autonomen Autos weg und stellen wir uns einmal vor, Microsoft brächte in zehn Jahren einen Computer heraus, der mit einer stark weiterentwickelten Cortana aufwarten kann. Per Sprachsteuerung übernimmt sie hochkomplexe Aufgaben für uns und kann uns damit viel Zeit ersparen. Nehmen wir einmal an, ein Freund hat uns erzählt, der neue 'Fast and Furious 15' sei noch toller, als die bisherigen Teile.

Wir bitten Cortana, den Film für uns herunterzuladen. Wir haben ein Amazon Abonnement, das es uns ermöglicht, Filme einfach zu kaufen und herunterzuladen oder zu streamen. Der Film ist aber noch nicht als Blu-ray oder im Stream erschienen und Cortana findet über Bing einen illegalen Stream oder einen illegalen Download. Und aufgrund eines Codefehlers oder einer neuen Eigenständigkeit lädt es die Datei kurzerhand dort. Haftet dann der Computerhersteller, auf dem Microsoft und seine Cortana laufen? Oder haftet Microsoft, weil Cortana ein Service der Microsoft Corporation ist?

Die Diskussion muss jetzt stattfinden, nicht morgen

Die Frage nach der Haftung ist eine, die besser heute als morgen gestellt werden muss, darum ist die Diskussion darüber auch so wichtig. KIs entwickeln sich immer rasanter. Erst kürzlich berichteten wir über einen Bericht der amerikanischen Ärztekammer 'AMA', die KIs als medizinische Assistenten in den nächsten 25 Jahren nicht in den Arztpraxen sieht, weil die diesbezüglichen Rechtsfragen nicht einmal im Ansatz geklärt seien. Wenn sich unsere Gesetzgeber, die hierzulande ja seit zehn Jahren selbst am Breitbandausbau scheitern, nicht bald darum kümmern, könnten wir vor der Tatsache stehen, dass wir großartige KIs entwickelt haben, die unseren Alltag erleichtern können, die aber trotzdem keinerlei Anwendung finden, weil die Gesetzbücher nicht auf sie zugeschnitten sind.

Viele Politiker dürften davor zurückschrecken, weil die meisten Gesetzes-Paragrafen über "gesunden Menschenverstand" und "Allgemeinwissen" verfügen. Das sind beides Dinge, die auf eine KI nicht zutreffen. Es steht uns also entweder eine radikale Überarbeitung unserer Gesetzeswerke bevor, oder aber eine Zukunft mit tollen KIs, die wir aber nur aus den Tech-Magazinen kennen. Beides sollte uns Sorgen machen.

Wer tiefer in das Thema eintauchen möchte und der englischen Sprache mächtig ist, findet hier eine gute Keynote von Professor Dana Remus von der UNC School of Law zu dem Thema:

Quellen: spectrum.ieee.com, axios.com

Hier erfährst du mehr über: Künstliche Intelligenz

Sag uns deine Meinung!