Faculty of Law Faculty Professuren Prof. Dr. Buck-Heeb Aktuelles
„Übernimmt KI zukünftig die Rolle des (Schieds-)Richters?“ – Rückblick auf die Ringvorlesung „Automatisierte Systeme“ mit RA Hon.-Prof. Dr. Hans-Patrick Schroeder

„Übernimmt KI zukünftig die Rolle des (Schieds-)Richters?“ – Rückblick auf die Ringvorlesung „Automatisierte Systeme“ mit RA Hon.-Prof. Dr. Hans-Patrick Schroeder

© Prof. Dr. Hans-Patrick Schroeder

Den Auftakt ins Jahr 2022 in der Ringvorlesung „Automatisierte Systeme“ machte am 11. Januar 2022 Herr RA Hon.-Prof. Dr. Hans-Patrick Schroeder mit einem Vortrag über „Robot Justice - Übernimmt künstliche Intelligenz zukünftig die Rolle des (Schieds-)Richters?“, zu dem der Lehrstuhl für Zivilrecht, Europäisches und Internationales Wirtschaftsrecht (Prof. Dr. Buck-Heeb) und der Lehrstuhl für Deutsches, Europäisches und Internationales Zivil- und Handelsrecht (Prof. Dr. Oppermann) zusammen mit dem Interdisziplinären Institut für Automatisierte Systeme e.V. (RifaS) eingeladen haben.

Dr. Schroeder ist Rechtsanwalt in Hamburg und Honorarprofessor an der Leibniz Universität Hannover, der er auch als Alumnus verbunden ist. In seiner Tätigkeit als Rechtsanwalt ist er spezialisiert auf Schiedsverfahren, gesellschaftsrechtliche Streitigkeiten und Folgestreitigkeiten nach Complianceverstößen. Technische Fragen der anwaltlichen und richterlichen Tätigkeit beschäftigen ihn in der Praxis bei der Auseinandersetzung mit Legal Tech und Plattformen zur Verfahrensabwicklung in Massenverfahren. An den grundsätzlichen Fragen der zunehmenden Technisierung von Zivilverfahren hat er aber auch ein wissenschaftliches Interesse, weshalb sich dieser Vortrag mit der (schieds-) richterlichen Entscheidungsfindung unter Zuhilfenahme von Entscheidungssystemen beschäftigt hat.

Nach der Begrüßung der Teilnehmenden durch Herrn Prof. Dr. Oppermann führte der Referent in das Thema der Veranstaltung ein und erklärte zunächst den Begriff „Robot Justice“. Dabei handelt es sich um Systeme, die unter Einsatz von künstlicher Intelligenz bzw. Algorithmen eigenständig Entscheidungen treffen. Hierbei wird das System mit Daten gespeist, anhand derer Algorithmen Metaregeln entwickeln, auf deren Grundlage die Fälle entschiedenen werden. Abzugrenzen ist hierbei von Assistenzsystemen, die nicht als Entscheidungs-, sondern als Prognosesysteme fungieren.

Bisweilen besteht die Erwartungshaltung eines möglichen Quantensprungs beim Einsatz von künstlicher Intelligenz und Big Data. Ob der Einsatz eigenständig arbeitender Systeme jedoch bedenkenlos ist und die Erwartung besserer, d.h. objektiverer und effizienterer Entscheidungsfindungen berechtigt ist, sollte im weiteren Verlauf des Vortrags erörtert werden.

Tatsächlich werden weltweit künstlich intelligente Entscheidungssysteme bisher nicht genutzt. Veranschaulicht wurde dieser Befund mit Beispielen anhand von Deutschland, Estland und China. Zwar gibt es teils irreführende Berichterstattungen, doch machte Herr Dr. Schroeder deutlich, dass es sich bei Robot Justice gegenwärtig „nur“ um ein Gedankenexperiment handelt, zu dem Machbarkeitsstudien entstehen, das Stadium der praktischen Anwendung aber nicht erreicht ist.

Einem praktischen Einsatz von Entscheidungssystemen stehen jedoch technische und rechtliche Hürden entgegen. So wird die Berücksichtigung von Sprache und Kontext, von menschlichen Eigenschaften oder die Fähigkeit zur Beweiswürdigung durch die technischen Systeme noch nicht ausreichend beherrscht. Kritisch wurde auch angemerkt, dass die Systeme statt propagierter Objektivität durch fehlende menschlich-subjektiver Entscheidungsbeeinflussung im Gegenteil Diskriminierung verstärken können, wenn und soweit die von Algorithmen gebildeten und angewendeten Metaregeln aufgrund von diskriminierenden Daten entwickelt werden. Problematisch ist weiterhin die fehlende Transparenz der maschinellen Entscheidung.

Auch nach dem geltendem Recht wird Robot Justice in Deutschland, so der Referent, nicht einsetzbar sein, da die zivilprozessualen Normen einen menschlichen Richter voraussetzen. Selbst wenn man von einer Regelungslücke ausginge, wird aufgrund verfassungsrechtlicher Gesichtspunkte der Einsatz von Robot Justice nicht zulässig sein. Ähnlich argumentierte Herr Dr. Schroeder mit Blick auf die Schiedsgerichtsbarkeit, deren Regeln ebenso die Entscheidung durch eine menschliche Person voraussetzen. Der Nutzung von künstlich intelligenten Assistenzsystemen steht der Referent jedoch aufgeschlossen gegenüber. Tatsächlich gibt es hier bereits Produkte, die jedenfalls insular genutzt werden.

Abrundend ging der Vortragende noch auf rechtspolitische Erwägungen ein, indem er etwa auf die Vorteile menschlicher Entscheidungen, rechtsstaatliche Aspekte sowie die Akzeptanz von menschlichen gegenüber automatisierten Entscheidungen einging. Schlussendlich gelangte Herr Dr. Schroeder zu dem Ergebnis, dass gegen den Einsatz von Robot Justice rechtliche und rechtspolitische Bedenken bestehen. Assistenzsysteme bieten jedoch nach der Ansicht des Vortragenden ein großes Potential.

Am Ende des Vortrags schloss sich eine lebhafte Diskussion an über methodische Fragen der Nutzung von künstlich intelligenten Entscheidungssystemen und die damit bedingte mögliche Verschiebung im Rechtsverständnis oder alternative Streitbeilegungssysteme von Unternehmen, sofern man diese als solche versteht, wie PayPal. Schlussendlich wurde deutlich, dass es sich bei Robot Justice nicht nur um ein rechtspraktisches, sondern auch um ein emotional aufgeladenes Thema handelt, bei dem nicht absehbar ist, wie die Zukunft aussehen wird.

Published by YG