Faculty of Law Faculty Professuren [Translate to English:] Prof. Dr. Beck Aktuelles
Strafbarkeit beim Einsatz autonomer Systeme | Prof. Dr. Beck hält Gastvortrag in Wien

Strafbarkeit beim Einsatz autonomer Systeme | Prof. Dr. Beck hält Gastvortrag in Wien

Im Rahmen der LunchTimeSeries on Law, Technology and Society der Universität für Bodenkultur in Wien hielt Frau Prof. Dr. Beck, vom Lehrstuhl für Strafrecht, Strafprozessrecht, Strafrechtsvergleichung und Rechtsphilosophie am 17. Dezember 2018 einen Gastvortrag zum Thema „Strafbarkeit beim Einsatz autonomer Systeme – Neue Impulse für das Konzept der Fahrlässigkeit?“. Mehr erfahren Sie im folgenden Bericht, der uns freundlicherweise von den Mitarbeitenden der Universität für Bodenkultur Wien zur Verfügung gestellt wurde.

Strafbarkeit beim Einsatz autonomer Systeme – Neue Impulse für das Konzept der Fahrlässigkeit?

Ob im Straßenverkehr, in der Medizin oder in der Industrie - in einer rasant steigenden Zahl an Lebensbereichen begegnen uns autonome, also mit einem gewissen Entscheidungsrahmen versehene, Systeme. Sie können in den verschiedensten Bereichen bei Entscheidungen helfen oder auch selbstständig Entscheidungen treffen. Einige autonome Systeme lernen durch die Methode des sogenannten Deep Learning, also auf der Grundlage von selbständig angeeignetem Wissen.

Ausgehend von der Frage: „Wieso funktioniert mein autonomes Fahrzeug nicht so wie ich das will?“, tauchte Beck in ihren Ausführungen immer weiter in das Strafrecht ein, um jene Bereiche aufzuzeigen, bei denen der Einsatz autonomer Systeme Fragen und Probleme aufwerfen. Beck gliederte ihre Gedanken dabei in vier Levels: Kausalitätsprobleme, die Vermischung von Dichotomien, mögliche Kontrollinstanzen und letztlich Blockchain Technologie als Grundlage für mögliche Kontrollinstanzen.

Level 1 - Fragen der Kausalität und Kausalitätsprobleme

Bei der objektiven Zurechnung stellt sich etwa die Frage, wie weit ein erlaubtes Risiko bei dieser neuen Technologie gehen darf und welche Rolle Verhaltensstandards spielen. Ein weiterer Punkt betrifft die Unterbrechung der Zurechnung durch Dritte: Kann eine Maschine, welche Teil der Entscheidung ist, die Zurechnung unterbrechen?

Bei der subjektiven Vorhersehbarkeit und Vermeidbarkeit sprach Beck das Modell des „Human in the loop“ an, welches darauf aufbaut, dass der Mensch Teil der Entscheidungskette bleibt. So normiert § 1b dt. StVG, dass der Lenker oder die Lenkerin stets verantwortlich bleibt, die Fahraufgaben wieder zu übernehmen. Dies werfe in der Praxis Probleme auf. Es sei fraglich, welchen Nutzen ein selbstfahrendes Auto habe, beziehungsweise ob es Lenkerinnen und Lenkern überhaupt zuzumuten sei, wenn sie trotz Autonomie des Fahrzeugs immer damit rechnen müssten, sofort die Steuerung zu übernehmen. Sie müssten im Ergebnis konzentrierter sein, als es das Lenken im Regelfall verlangt.

Hinsichtlich der Programmierung selbstfahrender Fahrzeuge stellen sich Fragen der konkreten Vorhersehbarkeit von Komplikationen für die Entwickler, die Rolle von externen Standards als Indiz für deren mögliche Sorgfaltswidrigkeit oder die Anwendung des Vertrauensgrundsatzes auf autonome Systeme.

Level 2 - Vermischung von Dichotomien

Im zweiten Level behandelte Beck die Vermischung von gegensätzlichen Kategorien, konkret das Verhältnis zwischen staatlichem und außerstaatlichem Recht und die Frage von Standardbildung als Entlastung des Staates. Zu bedenken sind dann Auswirkungen auf die individuelle Sorgfalt aufgrund der Annäherung von Recht und Nicht-Recht in der Form externer Standards.

Levels 3 und 4 - Kontrollinstanz durch Blockchain Technologie?

Mit Überschriften wie „Programmierter Rassismus“ oder „Mit Daten werden Maschinen intelligent - und rassistisch“ betiteln Zeitungen das Phänomen, dass autonome Systeme Bias aus eingespielten Daten übernehmen und in weiterer Folge diskriminierende Entscheidungen treffen. In Zeiten, in denen autonome Systeme immer relevanter in mehr und mehr Lebensbereichen werden, braucht es eine Kontrollinstanz. Damit beschäftigte sich Beck in Level drei ihres Vortrags. Zu denken sei an eine Algorithmus-Überwachungsbehörde. Eine solche Institution wäre mit großer Macht ausgestattet, was die Frage aufwerfe, wie sie legitimiert und organisiert werden sollte: Beispielsweise staatlich oder nicht staatlich bzw national oder international?

Als abschließenden Gedanken und zugleich als viertes Level führte Beck den Gedanken aus, eine solche Kontrollinstanz als Blockchain, also eine dezentrale, transparente und unveränderbare Kette von Datenpaketen auszuführen.

Diskussion: Verwendungsmöglichkeiten und Entwicklungen

Dem Vortrag folgte eine spannende Diskussion, in der zukünftige Auswirkungen von Deep Learning auf das Strafrecht kontrovers diskutiert wurden. Im Speziellen wurde überlegt, welche Aufgaben für den Staat daraus resultieren. Thema der Diskussion war außerdem der Einsatz künstlicher Intelligenz als Hilfsmittel für Strafgerichtsbarkeit, beispielsweise bei der Zusammenstellung personalisierter Maßnahmen im Rahmen der Resozialisierung von Straftätern oder bei der Prognose ihrer Gefährlichkeit.

Autor: Ferdinand Hönigsberger

Fotos: Katja Schirmer

Zum Bericht der BOKU Wien gelangen Sie hier.