KI als sozialwissenschaftliche Herausforderung
Auf der Grundlage maschinellen Lernens und situativer Adaptionsmöglichkeiten fügt sich KI nicht nur in soziale Kontexte und Zusammenhänge ein, sondern beeinflusst diese auch auf eine je bestimmte Weise. Entlang welcher Kriterien KI in die Gesellschaft eingreifen soll bzw. darf und wie das Wirken von KI in sozialen Zusammenhängen erforscht werden kann, ist jedoch ein noch offenes Problem der Sozial- und Gesellschaftswissenschaften. Der Schwerpunkt widmet sich diesem Thema auf zweierlei Weise: Zum einen wird der Herausforderung nachgegangen, wie KI mit Blick auf ihr Wirken und ihre Folgen im Mensch-Technik-Verhältnis normiert und kontrolliert werden kann. Zum anderen soll die These zur Diskussion gestellt werden, dass die Sozial- und Gesellschaftswissenschaften ihre Methoden und Methodologien weiterentwickeln müssen, um die potenzielle Handlungsträgerschaft und -macht von KI im Mensch-Technik-Verhältnis nachvollziehen und einordnen zu können.
Formen und Möglichkeiten gesellschaftlicher Normierung von KI
Prof. Dr. phil. habil. Karsten Weber
Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung & Direktor des Regensburg Center of Health Sciences and Technology | OTH Regensburg
Prof. Dr. Karsten Weber ist Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung sowie einer der drei Direktor*innen des Regensburg Center of Health Sciences and Technology der OTH Regensburg. Er beschäftigt sich insbesondere mit Technikfolgenabschätzung, Innovations- und Technikfolgenforschung, ELSA-Forschung (Ethical, Legal, and Social Aspects), Akzeptanzfragen und ethische Begleitforschung im Bereich der Informations- und Kommunikationstechnologie und in Zusammenhang mit Gesundheit, Energie und Mobilität. Seit einigen Jahren nimmt dabei die Digitalisierung im Allgemeinen und die Nutzung von Künstlicher Intelligenz im Gesundheitswesen im Speziellen eine prominente Rolle ein; hierzu hat Prof. Weber zahlreiche drittmittelgeförderte Projekte (EU Horizon 2020, VW-Stiftung, BMBF, BayStMGP, BayStMWK) geleitet oder daran mitgewirkt (Informationen finden sich unter: https://hps.hs-regensburg.de/wek39793/).
Kontakt: E-Mail , ResearchGate Karsten Weber, ORCID 0000-0001-8875-2386
Nadine Kleine
Wissenschaftliche Mitarbeiterin, Institut für Sozialforschung und Technikfolgenabschätzung | OTH Regensburg
Nadine Kleine ist wissenschaftliche Mitarbeiterin am Institut für Sozialforschung und Technikfolgenabschätzung (IST) der OTH Regensburg. Ihr Forschungsfokus liegt auf sozialwissenschaftlicher & ethischer Technikfolgenforschung, mit Fokus auf Technikwahrnehmung und –akzeptanz im Arbeits- und Gesundheitsbereich. Ihr Forschungsinteresse umfasst insbesondere digitale Technologien und Autonomie-Aspekte. Nadine Kleine wirkte u. a. am EU-Projekt CANVAS, am BMBF-Projekt TeamWork 4.0 und im Graduiertenkolleg Vertrauen & Akzeptanz in erweiterten und virtuellen Arbeitswelten der Universität Osnabrück mit.
Es steht außerfrage, dass die Entwicklung und der Einsatz von KI normiert bzw. reguliert werden muss. Es ist allerdings zu erwarten, dass angesichts des globalen Wertepluralismus, nationaler Eigenheiten und der Gemengelage in Hinblick auf Interessen Entwürfe einer globalen und alle Anwendungsgebiete umfassenden Normierung bzw. Regulierung scheitern müssen. Daher soll in der vorgeschlagenen Expertise der Fokus auf sektorielle Normierungen gelegt werden; die Medizin kann hierbei als paradigmatischer Fall betrachtet werden, von dem aus auf andere Einsatzgebiete geschlossen werden kann. Es geht also darum, aus dem Stand der Forschung, bestehenden Policy-Papern und weiteren Quellen bereichsspezifische Best-Practise-Ansätze zu extrahieren, um diese dahingehend zu untersuchen, inwieweit eine Adaption für andere Einsatzgebiete möglich ist. Statt also den Weg zu gehen von sehr allgemeinen Normen und Werten auf die konkrete Umsetzung zu schließen (top-down), soll mit der vorgeschlagenen Expertise der umgekehrte Weg gegangen werden (bottom-up).
Darüber hinaus ist ausdrücklich zu betonen, dass die Normierungsfrage erweitert werden muss. Denn es geht eben nicht nur darum die Entwicklung und den Einsatz von KI zu normieren bzw. zu regulieren, sondern es muss viel stärker in den Blick genommen werden, wie KI selbst normierend wirkt:
- KI-Übersetzungssysteme wie Google Translate oder DeepL normieren Sprache und Übersetzungen von Sprache. Die Diskussion um die Entlassung von Timnit Gebru durch Google und ihre normative Kritik an KI-Übersetzungssystemen zeigt, dass es für diesen Normierungsaspekt immer noch nicht genügend Aufmerksamkeit gibt.
- Ähnliches ließe sich in Bezug auf KI-Systeme sagen, die Bilder klassifizieren. Die Gefahr der systematischen Diskriminierung bestimmter Menschen oder Gruppen von Menschen ergibt sich bspw. aus verzerrten Trainingsdaten, Designentscheidungen oder anderen Faktoren, die bei der Gestaltung von KI-Systemen offensichtlich nach wie vor nicht ausreichend beachtet werden.
- In der Medizin (aber auch in anderen Bereichen, bspw. der Teilhabeplanung für gehandicapte Menschen) wird inzwischen darüber diskutiert, was passieren wird, wenn KI-Systeme im Regelfall ebenso gute oder gar bessere Entscheidungen treffen als Menschen. Die Nutzung von KI-Systemen wirkt hier normierend im Sinne der Setzung von Qualitätsmaßstäben. Solche Prozesse verlaufen schleichend und werden meist wenig beachtet; trotzdem sind sie wirkmächtig, denn sie verändern bspw. Professionsverständnisse, Machtgefüge oder das Verhältnis der Stakeholder. Solche Veränderungen müssen nicht notwendigerweise negativ sein, sollten aber bewusst begleitet werden.
- Langfristig könnte die Delegation von Entscheidungen an KI-Systeme normierend dahingehend wirken, dass sich die gesellschaftlich geteilte Auffassung davon, was eine individuelle Entscheidung eigentlich ausmacht, verändern könnte, wenn KI-Systeme solche Entscheidungen vorbereiten und Menschen diese im Prinzip nur noch übernehmen, weil die maschinelle Entscheidung in der Regel die bessere ist. Diese Entwicklung würde am zentralen Konzept individueller Autonomie rütteln.
Aus dem Gesagten lassen sich tentative Aussagen zu gesellschaftlichen Gestaltungsbedarfen und ‑optionen ableiten. Eine Option wäre, die Gestaltung und den Einsatz von KI-Systemen analog zu anderen technischen Systemen zu normieren bzw. zu regulieren, bspw. in Bezug auf Verantwortungs- und Haftungsfragen. In diesem Fall würden KI-Systeme nicht anders als andere technische Systeme behandelt werden, was aber dem spezifischen Charakter von KI-Systemen nicht Rechnung trüge. Es ist zwar problematisch (und muss Teil der Normierungsdebatte sein), KI-Systeme zu anthropomorphisieren und Begriffe zu nutzen, die bisher nur für Menschen verwendet wurden; in Ermangelung anderer Begriffe lassen sich KI-Systeme aber nur so beschreiben, dass sie handeln und entscheiden – und zwar in einer Weise, die bspw. durch Theorien wie die Actor-Network-Theory (ANT) nicht adäquat erfasst werden kann. Daher muss – was die vorgeschlagene Expertise unterstützen soll – zunächst der Normierungsbedarf, aber auch die normierende Wirkung von KI genauer beschrieben werden. Erst dann lassen sich bereichsspezifische Normierungen und Regulierungen, aber auch Maßnahmen für oder gegen eine normierende Wirkung von KI, formulieren, begründen und in Kraft setzen.
Methoden der gesellschafts–und sozialwissenschaftlichen KI–Forschung
Prof. Dr. Jan-Hendrik Passoth
Inhaber des Lehrstuhls für Techniksoziologie, Leiter der Science & Technology Studies Group | Europa-Universität Viadrina
Prof. Dr. Jan-Hendrik Passoth ist Inhaber des Lehrstuhls für Techniksoziologie an der Kulturwissenschaftlichen Fakultät Und Leiter der Science & Technology Studies Group an der European New School of Digital Studies, Europa-Universität Viadrina (FFO). Seine Forschungsschwerpunkte sind die Rolle digitaler Infrastrukturen für Demokratie und Politik, Softwareentwicklung als verantwortungsvolle soziale Praxis und die Möglichkeiten der Intervention in und Kritik an Digitalisierungsprojekten durch kritisches Design. Die von ihm an der European New School of Digital Studies geleiteten Projekte wie das Responsible AI Teilprojekt im EU H2020 Verbund Assistant oder das BMBF Projekt Dataskop zeichnen sich insbesondere durch den Einsatz experimenteller, digitaler und ‘mixed methods’ aus.
Peter Kahlert
Doktorand | European Newschool of Digital Studies, Europauniversität Viadrina
Peter Kahlert (geb. Müller) studierte Soziologie, Politikwissenschaft und Philosophie an der LMU München. Vor seiner Tätigkeit als Researcher für das BMBF geförderte Projekt DataSkop an der European Newschool of Digital Studies der Europauniversität Viadrina war er wissenschaftlicher Mitarbeiter am Digital Media Lab des MCTS. Aus seiner Tätigkeit in designbegleitenden Projekten (H2020 IMPROVE, EIT Food ReDiT) entstand ein ausgeprägtes Interesse für methodologische Fragen der beschreibenden sowie angewandten Sozialwissenschaften. In seinem Promotionsprojekt widmet er sich einer soziologischen Beschreibung der diskursiven und praktisch-materialen Rollen problem-lösender Kreativität auf Hackathons und der Welt, in der solche Events stattfinden. Er ist assoziiertes Mitglied des CIH der Uni Graz und beschäftigt sich dort im Projekt “Legal Positivism and AI” mit den rechtsphilosophischen Implikationen der Digitalisierung in juristischen Institutionen.
Silvan Pollozek
Wissenschaftlicher Mitarbeiter | Lehrstuhl für Techniksoziologie, Europauniversität Viadrina
Silvan Pollozek ist wissenschaftlicher Mitarbeiter am Lehrstuhl für Techniksoziologie und Mitglied der Science & Technology Studies Gruppe an der ENS. Nach seinem Studium in Kulturwissenschaften an der Universität Leipzig (2008-2011) und in Soziologie und Gender Studies an der LMU München (2011-2014) war Silvan Doktorand am Digital/Media/Lab am MCTS (2015-2020) der TU München.
Silvans Forschungsschwerpunkte sind Technologien der Migrations- und Grenzkontrolle, europäische Formen des Regierens durch die Zirkulation von Daten, sowie die praxeographische Erforschung von interorganisationalen und transnationalen Informations- und Dateninfrastrukturen. In seiner Doktorarbeit untersuchte Silvan sogenannte Frontex Joint Operations und arbeitete ethnographisch heraus, wie Datenpraktiken und Datenarchitekturen den Austausch von Daten, die Produktion von Wissen sowie die Kräfteverhältnisse zwischen EU und nationalstaatlichen Agenturen und Behörden (re)strukturieren.
Benedict Lang
Wissenschaftlicher Mitarbeiter | STS Forschungsgruppe, European Newschool of Digital Studies, Europauniversität Viadrina
Benedict Lang arbeitet als wissenschaftlicher Mitarbeiter in der STS Forschungsgruppe an der European New School. Im EU finanzierten Projekt ASSISTANT, forscht er zur verantwortungsvollen Gestaltung von KI in der Produktion. Er absolvierte einen Bachelor in Wirtschaftsinformatik an der DHBW Ravensburg und schloss im April 2020 sein Masterstudium RESET (Responsibility in Science, Engineering and Technology) an der TU München ab. Seine Beteiligung in der Forschungsgruppe begann mit Arbeit zu Strategien für ein europäische Medieninfrastruktur, er war außerdem als wissenschaftliche Hilfskraft im Projekt “Coving Public Value” beschäftigt und hat zur Untersuchung gemeinwohlorientierter Gestaltung von öffentlich-rechtlichen Medien beigetragen.
Im Moment bereitet er ein Dissertationsvorhaben vor, in dem es um Verhandlungsprozesse in Smart City Projekten gehen, wenn unterschiedliche Verständnisse von Stadt in Kooperationsprojekten zwischen öffentlichen und privaten Partnern aufeinandertreffen.
Suzette Kahlert
Wissenschaftliche Mitarbeiterin | Lehrstuhl für Techniksoziologie, European New School of Digital Studies, Europauniverstität Viadrina
Suzette Kahlert hat Soziologie, Gender Studies und Komparatistik an der LMU München studiert. Sie ist wissenschaftliche Mitarbeiterin am Lehrstuhl für Techniksoziologie an der European New School of Digital Studies der Europauniverstität Viadrina und forscht in im BMBF Projekt DataSkop und im EU Erasmus+ Projekt HIRING an den sozialen Voraussetzungen und Konsequenzen von KI Technologien auf Onlineplattformen und deren Einsatz im Human Resources Management. Zuvor war sie Mitarbeiterin am Lehrstuhl für Sozialtheorie der Universität Kassel im Graduiertenkolleg “Privacy and Trust for Mobile Users”. Sie ist weiterhin Assoziierte des GRKs und beforscht im Rahmen ihrer Promotion Designprozesse von Open Source Diensten hinsichtlich Vertrauensbewertungspraktiken und Infrastrukturen. Zu ihren fachlichen Interessen zählen insbesondere critical feminist theory, fat studies und aktivistische Praktiken auf social media Plattformen.
Maryam Tatari
Doktorandin | European Newschool of Digital Studies, Europauniversität Viadrina
Maryam Tatari studierte Software Engineering an der Amirkabir-Universität für Technology in Tehran, Iran, gefolgt von einem Master (2019) in Science and Technology Studies vom Munich Center for Technology in Society (TUM).
In ihrer Masterarbeit untersuchte sie, inwiefern die Veränderung von Medientechnologien und die Verbreitung von Video-on-Demand die europäische Intergration beeinflussen. Seit Juni 2020 ist sie beim Digital Media Lab als Teil des BIDT-Projekts „Coding Public Value“ tätig. Dort arbeitet sie an alternativen Methoden, die eine wertebasierte Softwareentwicklung ermöglichen sollen. Dabei fokussiert sie sich auf das Design und die Entwicklung von öffentlich-rechtlichen (content recommender) Medienplattformen.
In ihrer Doktorarbeit erforscht sie den Aufbau von werteorientierter digitaler öffentlicher Infrastruktur mit besonderem Fokus auf PEACH, einem Inhaltsempfehlungsplattform, der von verschiedenen Akteuren der European Broadcasting Union entwickelt und gestärkt wurde. Prof. Dr. Jan-Hendrik Passoth (European New School of Digital Studies) betreut Maryams Promotionsprojekt.
Methoden der gesellschafts- und sozialwissenschaftlichen KI-Forschung
KI als Forschungsgegenstand ist in verschiedener Hinsicht methodisch herausfordernd. Einerseits finden sich zahllose Anwendungskontexte: vom Versicherungs- und Gesundheitswesen, über Industrie 4.0 bis hin zu Human Ressource Management. Jeder Kontext bringt jeweils spezifische Anforderungen, Erwartungen und Problemstellungen an KI-Technologien mit sich. Andererseits ist das Design, das Training, die Implementierung in spezifischen institutionellen Umwelten, die Nutzung sowie die Regulierung von KI-Technologien ein vielschichtiger Prozess mit jeweils unterschiedlichen sozialen Arenen und sozialen Welten.
Im Rahmen der “Methoden der gesellschafts- und sozialwissenschaftlichen KI-Forschung” werden erstens bisher verwendete qualitative und quantitative Methoden zur Erforschung von KI-Technologien Mittels “Mappings” gesichtet, eingeordnet und hinsichtlich möglicher sozialer, kultureller und politischer Effekte kritisch hinterfragt sowie hinsichtlich ihres Anwendungsbereiches reflektiert. Zweitens wird aus den entstandenen Kartierungen ein zugleich quantitativer und qualitativer Methodenbaukasten entwickelt, der eine differenzierte und passgenaue Beforschung des vielfältigen und vielschichtigen Forschungsgegenstandes KI ermöglicht.
Für eine erste, vorläufige Bestandsaufnahme lässt sich bereits ein vielfältiges, wenig verbundenes Bild zeichnen:
In der quantitativen Sozialforschung sind vor allem “Upgrades” klassischer Datenanalyseverfahren durch Methoden des maschinellen Lernens sowie Ansätze des “Reverse Engineerings”, d.h. der Rekonstruktion von Einflussfaktoren von geblackboxten KI-Systemen, verbreitet. Zudem wird der Effekt von KI-Systemen auf soziale Wirklichkeiten etwa in der Arbeitswelt oder der Politik untersucht, wobei auch kritisch Biases und verborgenen Proxies und Mediatoren nachgegangen wird. Der Einsatz von KI, Machine Learning, und anderen multivariaten Verfahren des Umgangs mit Big Data (z.B. Webscraping) eröffnet Möglichkeiten, produziert aber ebenso alte und neue Probleme: Lose und unterbestimmte Korrelationen ohne Erklärungsmodelle, Schwierigkeiten und Unmöglichkeiten der Erhebung unabhängiger Stichproben, und auch ethische Komplikationen etwa der Intervention oder des Einverständnisses.
In der qualitativen Sozialforschung sind in den letzten Jahren vor allem Verfahren angewendet worden, die gewissermaßen “um die KI herum” mittels Inhalts- und Diskursanalysen Vorstellungen und Imaginäre zu KI re- und dekonstruiert oder mit Interviewstudien Entwickelnde, Nutzende und Betroffene von KI-basierten Entscheidungssystemen befragt haben. Zudem wurden mittels teilnehmender Beobachtung von Entwicklungs- und Nutzungssituation etwa von KI-Systemen in der Robotik oder im Zusammenhang mit Assistenz- und Entscheidungssystemen “kulturelle Logiken” von Design- und Verwendungspraktiken analysiert.
Insbesondere an der Schnittstelle von sozial- und medienwissenschaftlichen qualitativen Forschungszugängen sowie in den an diesen Schnittstellen neu entstandenen Forschungsfeldern der Critical Code Studies, der Software Studies oder der Computational Ethnography sind eine Reihe von Ansätzen entwickelt worden, die softwarebasierte Verfahren und KI/ML-basierte Werkzeuge einsetzen. Ein Beispiel hierfür sind etwa Geigers und Ribes’ “trace ethnographies” von Wikipedia-Debatten, die automatisierte Textanalyse mit Episoden von virtueller Ethnographie kombinieren.
KI-Forschung aus verschiedenen Zweigen kritischer und feministischer Sozialforschung hat sich wiederum zum Ziel gesetzt, konkret nach der Verwendung von Kategorien und scheinbar transparenten Algorithmen zu fragen. Dabei geht es darum, die Struktur verschiedener Formen von KI zu erforschen und die spezifischen Annahmen der Entwickler*innen und ihre sozio-technische Umsetzung innerhalb der KI zu reflektierten. Gerade weil Biases der KI erst sichtbar werden, nachdem sie bereits als Quasi-Akteur im Sozialen agieren, wären reflexive Methoden wie zum Beispiel Computational Ethnographies hilfreich, die die Wechselwirkungen zwischen KI-Entwicklung, Interaktionen zwischen KI und Umwelt und gesellschaftliche Auswirkungen problematisieren.
Vor diesem Hintergrund gilt es, der methodischen Unterversorgung durch eine Harmonisierung von qualitativen Methoden und technischen Voraussetzungen und Ansprüchen von KI einerseits und durch eine Kombination von qualitativen Methoden und quantitativen Ansätzen andererseits zu begegnen. Dies ermöglicht einen Perspektivenwechsel, der das Verhältnis zwischen vormals beobachtender Wissenschaft und als davon unabhängig stattfindend angenommener Praxis neu bestimmt. Dabei greift die Expertise auch interventionistische Ansätze aus den Science and Technology Studies auf, die nicht nur beobachtend forschen, sondern auch durch eigene Impulse in Entwicklungsprozesse eingreifen.
Ziel der Expertise und ihres “Methodenbaukastens” ist es, für interdisziplinäre Forschungsprojekte mit Wissenschaftler*innen mit unterschiedlicher Methodenausbildung eine kritische Einschätzung sowie eine instruktive Orientierungshilfe zur Erforschung von KI-Technologien an die Hand zu geben.
Folgen von KI für Sozial- und Gesellschaftstheorien
Dr. Valentin Rauer
Projekttätigkeit | Goethe Universität Frankfurt am Main
Langjährige Forschungstätigkeiten im Bereich der soziologischen Theorie, politischen Soziologie sowie der Wissens- und Kultursoziologie. Mitarbeit in einem Forschungsprojekt an der Goethe Universität Frankfurt/M. zu Fragen der digitalen ‚Sicherheitskultur im Wandel‘ (BMBF). Habilitationsprojekt zu einer ‚Theorie algorithmischen Handelns‘ (Publikation in Vorbereitung 2022). Dieses Habilitationsprojekt erfolgte im interdisziplinären Exzellenzcluster „Die Herausbildung normativer Ordnungen“ an der Goethe Universität Frankfurt/M. Das Projekt befasst sich mit den Folgen von KI und algorithmischen Handlungsträgerschaften für die Konstitution von sozialem Sinn, kommunikativem Handeln und öffentlichen sozialen Praktiken. Weitere Forschungsschwerpunkte adressieren Fragen der Digitalisierung im Rahmen der politischen Soziologie und Wissenssoziologie. Darüber hinaus Forschungs- und Publikationstätigkeiten zum Bereich der sozialwissenschaftlichen Gedächtnisforschung.
Die gesellschaftstheoretischen Folgen von KI wurden bisher vor allem in der Ethik, Informationswissenschaft und Techniksoziologie verhandelt. Ein ganzheitlicher Ansatz, der auch die die gesellschafts- und sozialtheoretischen Folgen von KI in den Blick nimmt, fehlt weitestgehend. In der Ethik wird der Einsatz von KI als gegeben vorausgesetzt und nicht prinzipiell auf allgemeine gesellschaftliche Risiken und Gefahren hinterfragt. In der Informations- und Technikforschung werden hingegen eher die einzelnen technischen Probleme mit Blick auf Lösungsstrategien und Innovationsforderungen thematisiert. Beide Ansätze sind notwendig, reduzieren aber die Folgen von KI auf einzelfallanalytische Kontexte. In dieser Expertise werden die Folgen von KI für das sozial- und gesellschaftstheoretische Verständnis von menschlichen Akteuren als soziale Handlungsträger umfassend analysiert. Es geht also nicht um spezifische Fragen der Mensch-Maschine-Interaktion, sondern um Fragen der allgemeinen Folgen von digitalen Mensch-Maschine-Transaktionen. Die These ist, dass KI nicht nur die Technik und Objektwelt verändert, sondern auch die Bedingungen menschlicher Sinn- und Kommunikationskonstitution an sich. Menschen stehen der künstlichen Intelligenz also nicht nur als autonom entscheidende Subjekte gegenüber, sondern ihre Entscheidungsgrundlagen werden durch KI verändert. Die Risiken und Gefahren dieser Veränderung bilden den zentralen Fokus dieser Expertise?
Um diese menschlich-maschinellen Transaktionsbeziehungen auch in der theoretischen Begrifflichkeit zu markieren, wird das Konzept des „algorithmischen Handelns“ eingeführt. Algorithmen stehen im Zentrum der Informationswissenschaft und wurden von Alain Turing, dem Gründer der Computerforschung, geprägt. Turing legte den Schwerpunkt seines Algorithmuskonzeptes nachahmungstheoretisch an. Algorithmen ahmen demnach das nach, was Menschen tun, wenn sie Vorschriften befolgen. Wenn Menschen eine Rechenregel anwenden oder im Sinne der Theorien rationaler Wahl nach der Prämisse ‚tit-for-tat‘ handeln (Granovetter), so lassen sich diese Handlungen maschinisieren. In beiden Fällen handelt es sich um bevorschriftetes Handeln. Im Unterschied zu Turing, gehen die Vertreterinnen von Rational Choice-Theorien davon aus, dass bevorschriftetes Handeln die einzige relevante Form sozialen Handelns ist. Dieser reduktionistischen Sichtweise folgt diese Expertise nicht. Stattdessen wird davon ausgegangen, dass sich gesellschaftliches und soziales Handeln nur zu einem geringen Teil aus solchen nutzenmaximierenden Bevorschriftungsprämissen konstituiert. Der Hauptteil des sozialen Handelns basiert eher auf kontingenten Prämissen, d.h. Menschen folgen ‚möglichen, aber nicht notwendigen‘ Handlungsgründen. Beispiele sind narratives Erfahrungshandeln oder normativ orientiertes Handeln (Tilly, Möllers).
Wenn Menschen ihr Handeln nach solchen narrativen, singulären bzw. kontingenten Erfahrungshorizonten ausrichten, dann kommt die maschinelle Nachahmung ihres Handelns an ihre Grenzen. KI kann nur Handlungsbereiche erfassen, die sich auf algorithmisch nachahmbares, d.h. bevorschriftetes Handeln beziehen. Allerdings heißt das nicht, dass kontingente Praktiken und Handlungsgründe nicht in bevorschriftetes Handeln transformierbar sind. Sich aus kontingenten Gründen für eine Handlungsalternative zu entscheiden, kann im Zuge von KI ermittelten Wissens- und Interaktionsordnungen in bevorschriftetes Handeln überführt werden. So kann beispielsweise ein digitales Schließsystem vollständig verhindern, dass menschliche Akteure noch in der Lage sind, sich für das Offenlassen oder Abschließen einer Tür zu entscheiden.
Das zentrale gesellschaftliche und soziale Risiko besteht also darin, dass sich bevorschriftetes Handeln aufgrund seiner eigenlogischen Maschinisierbarkeit auf immer weitere Handlungsbereiche ausdehnt. Algorithmisches Handeln tritt unbemerkt aufgrund seiner Maschinisierbarkeit in einen sozialen Verdrängungswettbewerb zu kontingentem normativem Handeln. Normativ kontingente Handlungsgrundlagen stellen eine zentrale Voraussetzung einer freiheitlich demokratischen Grundordnung dar (Habermas, Forst, Günther, Möllers). Wenn KI die Zonen dieser Grundlagen immer mehr reduziert oder gar verdrängt, werden diese Voraussetzungen bedroht.
Um diese Risiken einer Verdrängungsdynamik normativ kontingenter Handlungsbereiche theoretisch nachzuzeichnen und soziologisch bearbeitbar zu machen, werden zwei gesellschaftstheoretische Ansätze, die gemeinhin als inkommensurabel gelten, zu einer Substitutionsanalyse kombiniert: Die Theorie des kommunikativen Handelns (Habermas) und die Akteur-Netzwerk-Theorie (Latour). Erstere macht sichtbar, wie KI sich als ‚nicht-soziales‘, ‚verständigungsorientiertes‘ Handeln konstituiert. Letztere zeigt die Folgen der Substitution von KI im Rahmen von Sinn- und Bedeutungszuschreibungen sozialer Praktiken.
Insgesamt stellt die hier vorgeschlagene Substitutionsanalyse eine Schnittstelle zwischen theoretischer Analyse und methodologischem Ansatz dar. Sie dient dazu, die Ersetzungsprozesse von kontingent normativen Handlungsformen und soziale Praktiken in bevorschriftete Handlungsmuster durch KI theoriebezogen zu analysieren, um die risikobehafteten Folgen für die freiheitlichen normativen Gesellschaftsordnungen im Anschluss daran empirisch sichtbar machen zu können. Abschließend wird exemplarisch eine solche Substitutionsanalyse anhand eines noch zu bestimmenden empirischen Falles illustriert.