Institut für Kriminologie und Wirtschaftsstrafrecht
Rechtswissenschaftliche Fakultät der Universität Freiburg

Vortragsveranstaltung TACHELES

Automatisiertes Agieren in ungewissen sozialen Räumen – Offene rechtspolitische Fragen im Kontext von (teil-)autonomem Fahren bis zu automatisierten Steuerbescheiden

Referentin

Dr. Eva Geisberger, Informatikerin und (Rechts-)Soziologin

Veranstaltungsbeschreibung

Bereits heute sind automatisierte Fahrerassistenzsysteme im öffentlichen Straßenverkehr zugelassen und vermehrt unterwegs (aktiver Spurhalte‐, Spurwechselassistent u.a.; neues StVG, § 1a, 1b). Ihre Präsenz in ADAC‐Testberichten, Videodemonstrationen (YouTube) und Bewertungsportalen sowie Unfallberichten werfen nicht nur offene Fragen bezüglich Verlässlichkeit, Sicherheit und Rechtsrahmung auf, sondern auch hinsichtlich gesellschaftlicher Akzeptanz, Zulassungsfähigkeit, Sicherung der Bürgerrechte und demokratiepolitischer Gestaltung der Systeme.

Diese Fragen stellen sich umso dringlicher, nimmt man die politisch forcierte ‚Digitalisierung‘ öffentlicher Infrastruktursysteme (öffentliche Güter) und den damit verbundenen Ausbau öffentlich‐privater Dienstleistungsplattformen (ÖPP) mit entsprechend automatisierten Verwaltungsakten (§ 35a (VwVfG)) in den Blick, dies u.a. im Bereich automatisierter Steuerbescheide in der Steuerverwaltung der bundesweiten ELSTER‐Plattform. Faktisch konstitutionalisieren und manifestieren diese Systeme technokratische Herrschaftsformen und intransparente (New) Governancemodi, die es gilt hinsichtlich Rechtsstaatlichkeit, Grundrechts‐ und Freiheitsschutz und demokratischer Legitimations‐ und Gestaltungsprozesse zu hinterfragen (Möllers 2009, Haltern 2017).

Der Vortrag führt ein in die steuerungs‐ und sicherheitstechnische Definition, Einordnung und institutionelle Rahmung (teil‐)autonomen Fahrens, erläutert die Grenzen der Technik und verdeutlicht den grundlegenden Wandel von instrumenteller Technik hin zu plakativen Visionen ‚intelligenter‘ Systeme und Infrastrukturen. Sie agieren in offenen sozialen Kontexten, ‚lernen‘ anhand ihrer ‚Umgebung‘ und (können) entsprechend autonom und zielgerichtet ‚handeln‘: so die BMBF-Plattform Lernende Systeme mit ihren Experimentierfeldern und „Geschäftsmodellinnovationenin Form von ÖPP‐Dienst‐ leistungsplattformen in den Bereichen Mobilität, Gesundheit und Pflege, oder der bereits realisierten automatisierten Steuerverwaltung mithilfe ELSTER.

Soziale Verkehrs‐ und Handlungsräume

Ausgeblendet bzw. grundsätzlich negiert wird in diesen evolutiven Technikkonzepten der Robotik, aber auch der Soziokybernetik (Lepsius 1999; Knorr Cetina 1992; Wiegand(Popper) 1968) und des Laborkonstruktivismus (Gertenbach 2015), dass – anders als beispielsweise in der Luftfahrt, in der (teil)autonome Flugzeuge innerhalb enger Protokollvorgaben in einem hochgradig überwachten und koordinierten physikalischen Luftraum agieren – die Fahrzeuge des Individualverkehrs sich in ungewissen alltäglichen sozialen Verkehrs‐, Interaktions‐ und kulturellen (An)Erkennungs‐ und (Aus)Handlungsräumen bewegen. Und diese vielfältige soziale Interaktionsformen und überlagerte Räume besitzen, mit Widersprüchen und konkurrierenden Interessen, Devianzen oder auch kommunikativen und politischen Freiheiten. Dies gilt insbesondere für (städtische) kommunale (Lebens)Räume.

Als Informatikerin und Leiterin der Forschungsagenda Cyber‐physical‐Systems (CPS) Smart Mobility, Health, Energy, Industrie 4.0 und zugehörige Dienstleistungsplattformen – zeige ich die diesen Systemen inhärente Formatierungs‐ und Konstitutionalisierungsmacht sozialer Räume auf. Denn grundsätzlich gilt:

Die Informatik, ihre formalen Sprachen, operiert mit hochgradig selektiven funktionalen (formal‐logischen) Modellen der Realität. Faktisch konstituieren solche performativen (Austin) Interaktions‐ und Verhaltensmodelle, Architekturen und Plattformen die Verfasstheit von Gesellschaft mit. Hinsichtlich Fragen der Souveränität und Handlungsfähigkeit von Menschen bedeutet dies: die programm‐ bzw. systeminternen Datentypen, Datenstrukturen, Verhaltens‐ und Entscheidungsmodelle wirken als undurchsichtige Selektionsfilter: Sie ‚nehmen‘ nur zu diesen Modellen ‚passende‘ Phänomene der realen Welt an und schließen nicht Passendes und auch für Sensorschnittstellen Unsichtbares aus oder interpretieren ‚Ungewisses‘ im Rahmen ihrer internen Modelllogik. Umgekehrt ‚nötigt‘ das System der sozialen Umgebung, seinen Nutzer:innen und Betroffenen ein konformes Verhalten und eine modellgerechte (Eingabe)Interaktion auf, wenn sie am Geschehen teilnehmen und die Funktionen bzw. Dienste des Systems nutzen möchten oder müssen. Diese strukturellen (Macht)Asymmetrien sind Kern jeder Mensch–Maschine/System–Interaktion und viele der genannten Souveränitätsprobleme haben damit zu tun. In der Ökonomie spricht man in dieser Beziehung auch von der Externalisierung sozialer Kosten, das heißt allen Formen von Kosten, die in dieser Systemlogik Dritte oder die Allgemeinheit zu tragen haben. Darüber hinaus messen und skalieren die Systeme nicht nur ihre Umgebung anhand der internen Logik. Sie diskriminieren diese auch im Sinne sozialer Relevanz – Und stehen für einen enormen Verlust an sozialer wie rechtlicher Urteilskraft:

„Bedeutung hat, was als Input zugelassen wird. Normative Relevanz hat, was sich in eine formalisierte Entscheidungsstruktur einbetten lässt. Anderes geht verloren. Aber um solche Verluste an Entscheidungsqualität beobachten zu können bedarf es einer genaueren und nicht von vornherein idealisierenden Untersuchung von Normanwendungspraktiken. […] Wenn angemessenes Entscheiden nicht in der Anwendung moralischer Maßstäbe aufgeht, sondern sehr viel mit einem angemessenen Umgang mit tatsächlichen Umständen zu tun hat, besteht hier ein Defizit.“ (Möllers 2018: 470)

Anhand des CPS‐Schalenmodells (ebd.: 75f) und seiner Unterscheidung moderner Lebensräume und CPS‐Nutzungspraktiken hinsichtlich Offenheit, (Un)Gewissheit und (Un)Kontrollierbarkeit, erfolgt eine Charakterisierung historisch entstandener soziotechnischer Infrastruktursysteme (v. Laak 2001, 2018; Wißmann 2014; Hermes 1998, 2005) und ihrer zugehörigen (Rechts‐)Raumregime (Ordnungskonzepte, rechts‐/wirtschaftspolitische Regulierung, Norm(ier)ung). Dies mit dem Ziel, die genannten kategorialen Spannungsfelder, ihre vielfältigen ambivalenten, auch widersprüchlichen, gesellschaftlichen Kontexte und Anforderungen an die konkrete Gestaltung der Systeme und ihre Mensch–System– Interaktion sichtbar, formulierbar und ihre normative wie institutionelle Einbettung kollektiv verhandelbar zu machen.

Unterlaufen institutionalisierter (Rechts‐)Raumregime

Die Moderne und ihre (Ingenieurs‐, Rechts‐ und Geistes‐)Wissenschaften, Verbände und Professionen sowie ihre politische Gesetzgebung und (richterliche, staatliche) Rechtsfortbildung hat Entsprechendes entwickelt:

  • technische, mathematische und soziale Gefährdungs‐ und Risikomodelle,
  • technische und professionelle Engineering‐, Sicherheits‐, Prozess‐ und Überwachungsstandards,
  • Risiko‐ und Gefahrenabwehrdogmatiken,
  • zugehörige Rechtsinstitute (Produkthaftungsrecht, Arbeitsschutzrecht, Umweltrecht u.a.),
  • Straf‐, Zivilrechts‐ und Fahrlässigkeitsdogmatiken und
  • Haftungsregime (Erlaubtes Risiko, Anerkannte Regeln d. Technik, Stand d. Technik, Stand d. Wissenschaft u. Technik (Technikklauseln, DIN‐/ISO‐Standards); Gefährdungshaftung u.a.).

Vgl. u.a. (Vec 2006, 2011; Jansen 2003; Lepsius 2007; Falke 2000; Th. Möllers 2009; Blickle 2008).

Mithilfe der Erzählung allgegenwärtiger globaler Innovationskonkurrenz im Zusammenhang mit der ‚Digitalisierung‘ (USA, China) werden derzeit in enormem Umfang realweltliche CPS‐Experimentierräume im Bereich öffentlicher Güter und Dienstleistungen eingerichtet und entsprechende ÖPP‐Plattformen und Märkte in Europa aufgebaut. Ermöglicht wird dies u.a. durch fragwürdige Gesetzgebungsakte, Öffnungs‐ und Experimentierklauseln, die bewährte Rechts‐ und Sicherungsinstitute der Moderne unterlaufen beziehungsweise diese in ihrer intendierten Funktion außer Kraft setzen. So werden mit der Entgrenzung und Vernetzung funktionaler wie organisationaler Sozialräume – u.a. im Namen „digitaler Souveränität“, „Ökosysteme“ und „Nachhaltigkeit“ sowie unter Berufung auf europäische Werte, Sicherheitserfordernisse und Gemeinwohl – europäische Freiheitsräume willkürlich standardisiert und diszipliniert (vgl. Kersten(Forsthoff) 2005, Hofmann 2002; Lepsius 2010, Klement 2017; Strohschneider 2014).

Beobachten lässt sich diese widersprüchliche Verrechtlichung und Kodierung sozialer Praktiken an der vieldiskutierten Datenschutzgrundverordnung (DSGVO) mit ihren zahlreichen Öffnungsklauseln und unbestimmten Rechtsbegriffen. Insbesondere Artikel 22 (Automatisierte Entscheidungen im Einzelfall einschließlich Profiling) Abs. (1) und seine unmittelbare Aufhebung in Abs. (2) – verdeutlicht die Ambivalenzen und inhärenten Widersprüche, die solch allgemeine, sach‐ und kontextübergreifen den Regulierungsmodelle erzeugen. Diese können weder in allgemeiner abstrakter Form angemessen erfasst noch in der Praxis konfliktfrei um‐ und durchgesetzt werden. Auch klammert die DSGVO durchwegs die mit den Systemen verbundenen Externalisierungs‐ und Sozialordnungseffekte – Effekte ihrer kodierten Entscheidungsarchitekturen – aus. So wird explizit die anonymisierte Erhebung und Verar beitung personenbezogener Daten zu Forschungszwecken oder im öffentlichen Interesse zugelassen (Art. 23, Art. 89 u.a.) – ohne sich mit Fragen deren wissenschaftlicher Qualität und demokratischer Legitimierung, auch in den betroffenen sozialen/kommunalen Räumen vor Ort auseinanderzusetzen. Vgl. zum europäischen Datenschutzrecht und seinem Öffentlichen Interesse an Privatheit sowie der Bedeutung digitaler Selbstbestimmung als elementare Funktionsbedingung demokratischer Gesellschaften (Klement 2017).

Fragwürdige experimentelle Gesetzgebung

Konkret erfahr‐ und sichtbar werden die Folgen solch unbestimmter experimenteller Gesetzgebung und Einsatzes automatisierter Entscheidungssysteme an den leidvollen Auswirkungen sozialstaatlichen Behördenversagens in den Niederlanden (Skandal um Betreuungszuschläge, Kirchner/SZ 2021, Gesley/ Legal Monitor 2020) und der oben genannten Praxis automatisierter Steuerbescheide in Deutschland. Sie bedeuten enorme Verluste an Entscheidungsqualität und sind vielfach verbunden mit ungerechtfertigten wie ungerechten negativen Auswirkungen für die Betroffenen: Überforderung hinsichtlich Aufwand, Kosten und Verstehen der verwaltungsinternen, unzurechenbar entgleisten Formular‐ und Systemlogik; Tragen entsprechender Subsumptionsrisiken, bis hin zu existenzbedrohenden Fehlentscheidungen (Kube 2018, Luhmann 1966; Steinke/SZ 2021; O’Neil 2016).

Neben offenen zivil‐/strafrechtlichen Haftungs‐ und Zurechnungsfragen werfen die teilautonomen Systeme verfassungsrechtliche wie demokratiepolitische Legitimationsfragen auf und fordern eine technische wie rechtliche und politische Accoutability ein – auch hinsichtlich der mit der Skalierbarkeit der Systeme und ihrer Geschäftsmodelle verbundenen Verteilungs‐ und Sozialordnungseffekte.

Begriffe aktueller Gesetzgebungsprozesse der EU (Ethics Guidelines for Trustworthy AI, Harmonized Rules on AI, Towards a Common European Data Space, Verordnung (Harmonisierung) künstlicher Intelligenz) wie „Trustworthy AI“, „Human‐in‐the‐Loop“, „Human Oversight“, „solide Risiko‐Methodik“ und „Verantwortung“ oder „Daten‐Governance“ werden damit ‚in Frage‘ gestellt.

 

Zur Person: Dr. Eva Geisberger studierte Informatik (Dipl.), Soziologie und politische Philosophie (MA) an der TU und LMU in München und promovierte auf dem Gebiet des Requirements Engineering eingebetteter Systeme. Neben ihrer Forschungstätigkeit in interdisziplinären Projektkooperationen berät sie international tätige Unternehmen zu modellbasierter Anforderungs- und Systemanalyse sowie Strategieentwicklung. Zuletzt leitete sie den Bereich Software und Systems Engineering des Forschungsinstitutes fortiss GmbH, An-Institut der TU München.