Kürzlich wurde in den sozialen Medien folgender Unfall geschildert: Ein Jogger wurde auf seiner sonntäglichen Joggingtour auf dem Fussweg entlang eines Flusses von einem Robodog verletzt. Dieser war von einem Biotechniker entwickelt und so trainiert worden, dass er sich ohne (elektronische) Leine im Freien fortbewegen konnte. Am Unfalltag unternahm der Biotechniker mit seinem Robodog einen Trainingsspaziergang. Als der Jogger von hinten kommend den Robodog ordnungsgemäss linkseitig überholen wollte, schwenkte dieser wegen eines auf dem Fussweg liegenden grösseren Steins plötzlich nach links aus und schnitt dadurch dem Jogger den Weg ab. Dieser versuchte noch reflexartig auszuweichen, blieb aber mit seinem rechten Fuss am Robodog hängen, verlor das Gleichgewicht, stürzte die Flussböschung runter und prallte mit dem Kopf heftig gegen einen Steinblock. Dabei erlitt er eine Kopfverletzung, die zu einer deutlichen Beeinträchtigung seiner kognitiven Fähigkeiten und schliesslich zur Teilinvalidität führte.
Der Unfall wurde von einem lokalen Politiker als Beleg dafür genommen, dass die Verantwortung für die Verwendung von Robotern unbedingt gesetzlich geregelt werden müsse, da KI eine echte Gefahr für die Gesellschaft darstelle und niemand wirklich verstehe, was in neuronalen Netzwerken vorgehe und solche «Blackboxes» gesellschaftlich nicht tragbar seien.
Ist diese Auffassung richtig? Eine vergleichende Gegenüberstellung des (künstlichen) Robodogs mit einem normalen (biologischen) Hund hilft weiter.
Wäre in unserem (fiktiven) Fall der Jogger von einem Labrador zu Fall gebracht und verletzt worden, läge die Verantwortung rechtlich offensichtlich beim Tierhalter. Dieser trägt das Risiko, und die Verantwortung, wenn sein Hund durch instinktives Fehlverhalten andere Personen schädigt. Wer einen Hund hält, ist deshalb gehalten, diesen so zu erziehen und trainieren, dass er Menschen nicht gefährdet und schädigt. Je nach den konkreten Gegebenheiten muss der Hund daher im Freien an der Leine geführt werden und allenfalls einen Maulkorb tragen. Für die Beurteilung der Haftung des Hundehalters ist es unerheblich, was im Gehirn des Hundes, also in seinem neuronalen Netzwerk vor sich gegangen ist. Das schädigende Verhalten eines Hundes wird seinem Halter – unabhängig von den biologischen und chemischen Abläufen im Schädel des Hundes – zugerechnet. Für die Haftung des Tierhalters spielt es daher keine Rolle, wenn das Hundehirn eine intransparente, nicht nachvollziehbare Blackbox darstellt.
Vor diesem Hintergrund überrascht es, dass in vielen Diskussionen künstliche neuronale Netzwerke als Blackboxes charakterisiert und für die Gesellschaft als per se gefährlich dargestellt werden, da es ihnen an Transparenz und Nachvollziehbarkeit fehle. Eine nüchternere Betrachtungsweise würde eher folgern: Wenn beim Hund seit Jahrhunderten die Zurechnung der Verantwortung für Schäden, die durch nicht erklärbare Vorgänge in seinem biologischen neuronalen Netzwerk entstanden sind, kein Problem darstellt, weshalb sollten dann intransparente Vorgänge im künstlichen neuronalen Netzwerk eines Robodog ein neuartiges Problem für die Schadenshaftung darstellen? In beiden Fällen soll der Halter für das schädigende Verhalten seines Hundes bzw. Robodogs einstehen müssen.
So betrachtet ist das Problem nicht die Intransparenz gewisser Abläufe in (biologischen oder künstlichen) neuronalen Netzwerken, da die Zurechnung und die Verantwortung in beiden Fällen aus Gründen der Kohärenz nach denselben Grundsätzen zu erfolgen hat. Das Problem liegt eher in der Tendenz, komplexe Phänomene (wie KI) aus jeweils verengten Perspektiven einzelner wissenschaftlichen Disziplinen erfassen und verstehen zu wollen. Das ist weder zielführend noch erfolgversprechend. Mit anderen Worten: Labrador und Robodog sollten ab und zu gemeinsam spazieren gehen, sei es mit oder ohne Leine, um ihre Hundebesitzer zu einem interdisziplinären Gedankenaustausch anzuregen.
Für den von einem Tier angerichteten Schaden haftet, wer dasselbe hält, wenn er nicht nachweist, dass er alle nach den Umständen gebotene Sorgfalt in der Verwahrung und Beaufsichtigung angewendet habe, oder dass der Schaden auch bei Anwendung dieser Sorgfalt eingetreten wäre.
Die Blogbeiträge dieser Serie bieten eine interdisziplinäre Betrachtung der aktuellen KI-Entwicklung aus technischer und geisteswissenschaftlicher Perspektive. Sie sind das Ergebnis eines wiederkehrenden Austauschs und der Zusammenarbeit mit Thomas Probst, emeritierter Professor für Recht und Technologie (UNIFR), sowie SATW-Mitglied Roger Abächerli, Dozent für Medizinaltechnik (HSLU). Mit diesen monatlichen Beiträgen streben wir eine sachlich neutrale Analyse der wesentlichen Fragen an, die sich im Zusammenhang mit dem Einsatz von KI-Systemen in verschiedenen Anwendungsbereichen ergeben. Unser Ziel ist es, einzelne Aspekte des KI-Themas verständlich und fachlich fundiert zu erläutern, ohne dabei zu technisch ins Detail zu gehen.