Institutionelle Einbettung von KI
Der thematische Schwerpunkt widmet sich gesellschaftlichen Institutionen und der Frage, wie KI sozial gerecht und ökonomisch wie ökologisch nachhaltig in gesellschaftliche Strukturen eingebettet werden kann. Dazu wird unter anderem geklärt, welche gesellschaftlichen Institutionen sich dafür eignen, wie sich Institutionen wandeln und welche neuen gesellschaftlichen Institutionen womöglich geschaffen werden müssen. Die Expertisen widmen sich insbesondere rechtlichen und ökonomischen Institutionen.
KI und Verantwortung
Prof. Dr. jur. Dr.h.c.mult. Gunther Teubner
em. Professor der Rechtswissenschaft | Goethe-Universität Frankfurt
Gunther Teubner ist emeritierter Professor am Fachbereich Rechtswissenschaft der Goethe-Universität Frankfurt. Er lehrte am European University Institute Florenz, an der London School of Economics und war zuletzt PI am Frankfurter Exzellenzcluster „Normative Ordnungen“. Seine Forschungsschwerpunkte sind Rechtssoziologie, Vertragsrecht, Rechtsvergleichung. Einschlägige Veröffentlichungen beschäftigen sich mit soziologischen Theorien zur Personifizierung von nicht-menschlichen Akteuren und mit der Haftung für Fehlentscheidung von Algorithmen.
Dr. Anna Beckers
Assistenzprofessorin für Privatrecht und Rechtsmethodik | Universität Maastricht
Anna Beckers ist Assistenzprofessorin für Privatrecht und Rechtsmethodik am Fachbereich Rechtswissenschaft der Universität Maastricht, Niederlande. Ihre Forschungsschwerpunkte liegen im Zivil- und Wirtschaftsrecht, Rechtsvergleichung, rechtswissenschaftlichen Forschungsmethoden sowie den interdisziplinären Bezügen des Rechts zur Gesellschaftstheorie. Anna Beckers hat vornehmlich im Bereich der Unternehmensverantwortung und der Verantwortung in globalen Zuliefernetzwerken veröffentlicht sowie, gemeinsam mit Gunther Teubner, eine Monographie zur Verantwortung und Haftung von Künstlicher Intelligenz.
Aktanten, Hybride, Schwärme: Drei Haftungsregimes für Künstliche Intelligenz
I. Ausgangslage: Verantwortungslücken im geltenden Recht und in Reformvorschlägen
Für Fehlentscheidungen autonomer Algorithmen wird nach geltendem Recht nicht gehaftet. Dieser verblüffende Befund ist auf die traditionellen Zurechnungstechniken des Privatrechts zurückzuführen, die das Computerverhalten stets als Verhalten der dahinterstehenden Menschen ausgeben müssen. Softwareagenten können bisher rechtlich nur als bloße Maschinen, als willige Werkzeuge in den Händen ihrer menschlichen Herren, behandelt werden. Für Maschinenversagen wird aber, wenn den beteiligten Menschen kein Verschulden nachzuweisen ist, nicht gehaftet.
Angesichts dieser nur schwierig korrigierbaren Rechtslage haben die rasanten digitalen Entwicklungen schon jetzt schwer erträgliche Verantwortungslücken aufgerissen, die sich in Zukunft noch vertiefen werden. Unausweichlich verursachen Softwareagenten diese Verantwortungslücken, da ihr autonomes Handeln einen massiven Kontrollverlust der rechtlich allein relevanten menschlichen Akteure mit sich bringt. Besonders schadensträchtig sind Konstellationen von Computervernetzung, Big Data, Smart Contracts, digitalem Vertragsbruch und ganz besonders negative Externalitäten gegenüber unbeteiligten Dritten, gegenüber denen selbst die neuere Produkthaftung versagt.
Dabei sind auch die neueren Reformvorschläge – Eigenhaftung der Algorithmen als „E-personen“ oder Gefährdungshaftung – ungeeignet, die Verantwortungslücken überzeugend zu beseitigen. Beide Ansätze unterschätzen letztlich die Eigenheiten des digitalen Autonomierisikos in Situationen digitaler Assistenz. Ein wesentlicher Grund dafür ist ein disziplinärer Kurzschluss zwischen Informationstechnologie und Recht, bei dem technische Entwicklungen direkt auf rechtliche Haftungskategorien bezogen werden. Dagegen entwickeln wir in unserem Forschungsprojekt zu Künstlicher Intelligenz und Haftung einen neuartigen methodischen Ansatz, der Resultate der Informationstechnologien und sozialwissenschaftliche Einsichten zu sozio-technischen Institutionen und gesellschaftlichen Risiken aufgreift, um sie dann normativ in drei zentrale rechtliche Verantwortungs- und Haftungskonzepte zu übersetzen: digitale Autonomie, Hybridität und Vernetzung.
II. Eigener Fokus: Sozio-digitale Institutionen als Intermediäre zwischen Technik und Recht
Dabei plädieren wir für einen „institutional turn“ im Recht der Digitalität: Welche Konsequenzen ergeben sich für die rechtliche Verantwortung und Haftung, wenn autonome Algorithmen in unterschiedlichen sozialen Konfigurationen partizipieren? Als intervenierende Variablen zwischen IT-Maschinenverhalten und Haftungsrecht führen wir „sozio-digitale Institutionen“ ein. Dies sind stabilisierte Komplexe sozialer Erwartungen, insbesondere Erwartungen zu digitalen Risiken in unterschiedlichen sozialen Kontexten. Rechtliche Verantwortungskonzepte müssen deshalb auf sozialwissenschaftliche Analysen zurückgreifen. So kann der Kurzschluss Technik/Recht vermieden werden. Und auf der Grundlage unterschiedlicher gesellschaftlicher Praktiken der Attribution von Handlungen in sozio-digitalen Institutionen können entsprechend rechtlich passende Verantwortungskonzepte entwickelt werden.
Freilich genügt es in einer folgenorientierten Rechtsargumentation nicht, in der Wahl zwischen sozialwissenschaftlichen Ansätzen ausschließlich ökonomische Modelle einzubeziehen, wie es in neueren Rechtsanalysen üblich geworden ist. Es ist notwendig, den in der Philosophie und Soziologie entwickelten Prinzipien der „Transversalität“ zu folgen, wonach die rechtsdogmatische Argumentation unterschiedliche sozialwissenschaftliche Angebote auf ihre Rechtsrelevanz prüfen muss, um hierauf aufbauend eigenständige juristische Modelle für digitale Haftung entwickeln zu können. Entsprechend rekurrieren wir auf soziologische und philosophische Theoreme (1) der Personifikation nicht-menschlicher Akteure („Aktanten“), (2) der Mensch-Maschinen-Assoziationen als emergenten sozialen Systemen mit Kollektivakteurqualitäten („Hybride“) und (3) der distribuierten Kognition in der Interkonnektivität von Algorithmen („Schwärme“).
III. Ziel: Entwicklung von Haftungsregimes
Um zu adäquaten Haftungsrechtsnormen vorstoßen zu können, greifen wir neben ökonomischen Ansätzen, die eine Balance zwischen Aktivitätsniveau und Sorgfaltsniveau herzustellen suchen, besonders auf soziologische Risikotheorien zurück, die kontextspezifische Risikoperzeptionen beschreiben. Entsprechend planen wir im Laufe des Projekts, auf die Risiken mit unterschiedlichen Haftungsregimes und detaillierte rechtliche Einzelregelungen zu entwickeln: (1) vikarische Haftung für „digitale Assistenz“, (2) Netzwerkhaftung für „Mensch-Maschinen-Hybride“ und (3) Einrichtung von Risikopools für Interkonnektivität. Ziel ist, der aktuellen Reformdiskussion in Deutschland und in der EU theoretisch begründete und zugleich praxistaugliche rechtspolitische Vorschläge zu unterbreiten.
Demokratie und politische Teilhabe
Prof. Dr. Jeanette Hofmann
Forschungsdirektorin | Alexander von Humboldt Institut für Internet und Gesellschaft
Prof. Jeanette Hofmann ist Politikwissenschaftlerin und Digitalisierungsforscherin. Am Wissenschaftszentrum Berlin für Sozialforschung leitet sie die Forschungsgruppe ‘Politik der Digitalisierung’. Sie ist Forschungsdirektorin am Alexander von Humboldt Institut für Internet und Gesellschaft und Professorin für Internetpolitik an der Freien Universität Berlin. Zudem leitet sie als Principal Investigator zwei Forschungsgruppen am Weizenbaum Institut für die vernetzte Gesellschaft zu den Themen ‘Digitalisierung und Demokratie’ und ‘Quantifizierung und gesellschaftliche Regulierung’. Zu ihren aktuellen Forschungsthemen gehören Plattformregulierung, digitale Demokratie und die Geschichte der deutschen Netzpolitik. In ihrer Arbeit verbindet sie Konzepte der Techniksoziologie und -philosophie mit der empirischen New Media Forschung sowie Governance- und demokratietheoretischen Ansätzen.
Dr. Clara Iglesias Keller
Research Follow | WZB Berlin Social Sciences Center
Dr. Clara Iglesias Keller is a research fellow in Politics of Digitalization at the WZB Berlin Social Sciences Center, focused on information technology regulation and the role played by governance structures in digital transformation. She also coordinates the Digital Disinformation Hub at the Leibniz Institute for Media Research and is an Associate Researcher at the Alexander von Humboldt Institute for Internet and Society.
Clara holds a Masters and a Doctorate in Public Law (equivalent to summa cum laude in the German system) at the Rio de Janeiro State University, having written her thesis on “National regulation of Internet-based services: exception, legitimacy and the role of States” (2019). She also holds a L.L.M in Information Technology and Media Law at the London School of Economics and Political Science (2012).
Author of the books “Media Law in Brazil” (International Encyclopedia of Laws, Forthcoming) and “Regulação Nacional de Serviços na Internet: exceção, legitimidade e o papel do Estado” (LumenJuris, 2019).
Folgen von KI für Demokratie und politische Teilhabe/ Consequences of AI for democracy and political participation
This expertise will focus on the relationship between artificial intelligence and democratic institutions, with special focus on the interaction of these technologies and political participation.
Out of the lessons from the history of technological infrastructures, there are two aspects that hold special importance to this analysis. The first one refers to the ambivalence with which new technologies present themselves, as they arise with potential to emancipation and domination. Alongside promises of economic development and social welfare improvement, their expansion may reconfigure individual and collective autonomy – either by affecting civil liberties directly, or by transforming social practices and institutions that shape individual choices in different ways. The second aspect deals with uncertainty. The changes enabled by new technologies cannot be fully comprehended as of their contemporary deployment. Thus, public discourse and policy choices are likely to contribute to the evolution of AI systems.
Debates on the deployment and regulation of artificial intelligence tend to portray the uncertainty of AI’s impact in terms of risks and opportunities, with the present state of technology and democracy as usual reference point. However, the socially most relevant changes of novel infrastructures are often those that are unexpected and transformative in the sense that they alter the institutions that structure our way of thinking and acting. Such changes are difficult, if not impossible, to predict in terms of risks and opportunities.
In order to understand how the proliferation and use of AI systems may affect political participation, we suggest focusing on indications for transformative changes at the “democratic interface”, understood as the “communication and organization processes that engage citizens with institutions of collective self-governance” (Bennett et al 2018: 1657). In particular, this project will study three perspectives regarding how machine learning techniques relate to political participation: (i) the conditions for political participation; (ii) as means or media to support participation in democratic processes, and (iii) as citizens’ voice in the policy debates currently shaping AI regulation.
The first one – i.e. conditions for political participation – refers to the triad individual autonomy, AI and democracy – where AI alters both individual autonomy (and thus substantive conditions for political participation) and democratic institutions (hence affecting conditions for procedural participation). The latter is also affected indirectly through impacts on autonomy, as limitations on individual rights (e.g. equality and the right to not be discriminated) will also affect access to and exercise of participation mechanisms.
The second concern addresses AI’s promises to enhance individual emancipation. While the public debate focus currently centers on dangers of AI, it should be taken into account that these systems may also enhance democracy, for example by extending the scope of self-government towards predicted futures.
The third perspective refers to political participation and representativeness as a legitimacy standard for AI targeted policies. Besides stakeholders’ participation in decision-making being a well known legitimacy standard for regulatory processes (Schmidt 2013), it gains greater importance in a context where policy initiatives are said to shape the very object they intend to regulate.
The project consists of a literature study on each one of these topics, with focus on translating them into future policy concerns.