Ein neues Recht für die digitale Gesellschaft? Tagungsbericht „Demokratie und Künstliche Intelligenz“ (Trier)

Künstliche Intelligenz war stets eines der zentralen Schlagworte der Digitalisierung. Schon zu Zeiten von Joseph Weizenbaums ELIZA kontrovers, wird sie durch neuere Entwicklungen zum Gegenstand alarmistischer Diskussionen und lässt Probleme offensichtlich werden, etwa im Falle von Microsofts Tay oder Chinas Skynet-Programm. Dabei wird häufig der Eindruck vermittelt, der Mensch stehe einer expansiven Rationalität gegenüber, die sich ihm zunehmend entfremde und die gesellschaftlichen Verhältnisse ihrer eigenen Logik entsprechend beeinflusse. Kernkonzepte demokratischen Denkens wie Selbstbestimmung, eine allgemein zugängliche Öffentlichkeit und ein egalitäres Menschenbild geraten damit potentiell in Konflikt zur technologischen Entwicklung. Diese Spannung hat die von Antje von Unger-Sternberg (Trier) und Sebastian Unger (Bochum) ausgerichtete Tagung „Demokratie und künstliche Intelligenz“ am 22. und 23. Februar 2018 an der Universität Trier mit Blick auf die öffentliche Meinungsbildung und demokratische Herrschaftsausübung beleuchtet.

Öffentliche Meinungsbildung und digitale Algorithmen 

Ulf Buermeyer skizzierte in seinem Eröffnungsvortrag die Transformation der klassischen Medienlandschaft und ihrer (demokratisch) institutionalisierten Strukturen hin zu einer plattformgestützten Infrastruktur. Diese unterliege aufgrund ihres privaten, transnationalen Charakters bisher kaum wirksamen und durchsetzbaren rechtlichen Bindungen. Zudem werde durch den ökonomischen Imperativ einer von Werbeeinnahmen abhängigen Plattformindustrie nicht die Darstellung eines ausgewogenen Meinungsbildes, sondern opportunistische Informationspräsentation priorisiert: Die Nutzer sollen sehen, was sie sehen möchten. Dadurch werde dem demokratischen Diskurs zunehmend seine Allgemeingültigkeit entzogen. Der Einsatz von Social Bots – Programme, die in sozialen Medien automatisch bestimmte Beiträge generieren – verschärfe dieses Problem noch, indem die Gefahren des von Eli Pariser beschriebenen Filterblasen-Effekts verstärkt würden und es zu einer radikalisierten Polarisierung der Meinungsbildung und einer Fragmentierung des öffentlichen Diskurses komme. Dass Filterblasen empirisch bisher kaum überzeugend belegt werden konnten, sei allenfalls ein Problem sozialwissenschaftlicher Methodik und spreche nicht gegen die überzeugende deduktive Logik der theoretischen Annahmen.

Thomas Vesting und Uwe Volkmann stellten dieser Bestandsaufnahme dann grundlegendere Überlegungen an die Seite. Vesting lieferte eine theoretisch dichte Rekonstruktion des öffentlichen Strukturwandels, derzufolge die pluralistische Vorformatierung des Diskurses durch Kollektive wie Parteien, Kirchen oder Verlagshäuser in der fluiden Netzkultur des homo digitalis verloren gehe. Die sich „unablässig wandelnde Fabelkultur“ des Netzes erschwere die Selbstreflektion des Subjektes durch die Ausradierung des Anderen: die Herstellung einer Allgemeinheit werde verhindert, so dass staatliches Recht nicht mehr auf eine allgemeine Ordnungsbildung angelegt sein dürfe, sondern in einer „Logik der Erprobung“ an den neuen Mustern der privatgesellschaftlichen Fragmente ansetzen müsse. Während Vesting damit den idealistischen Gehalt verfassungsrechtlicher Positionen zur Disposition stellte, argumentierte Volkmann für die Beibehaltung normativer Ideale. Nach einer kontrastierenden Diskussion prozeduraler und substantieller Positionen der Demokratietheorie verwies Volkmann darauf, dass auch das Bundesverfassungsgericht einen substantiellen Republikanismus zur Grundlage seiner Überlegungen mache. Dieser habe normativ anspruchsvolle Erwartungen an das politische Handeln der Bürger*innen im Gemeinwesen und gehe über ein rein formales Verfahren der Legitimationsbeschaffung hinaus. Gerade in der Sphäre des Rechts seien Ideale als Maßstab der Bewertung und Beurteilung gesellschaftlicher Verhältnisse notwendig. Der normativ-abstrakte Charakter der Verfassung liefere das Vokabular, gesellschaftliche Probleme zu bearbeiten und Ideale reflexiv zu aktualisieren.

Im Geiste einer solchen Aktualisierung argumentierte Anna-Bettina Kaiser für die Subsumtion von Facebook unter den verfassungsrechtlichen Begriffs des Rundfunks im engeren Sinne. Aufgrund dessen Breitenwirkung („quod est in newsfeed, non est in mundus“) und da der Algorithmus als Äquivalent zur redaktionellen Kuratierung zu verstehen sei, müsse der Gesetzgeber die notwendige Binnenpluralität sicherstellen, etwa durch Opt-Out für personalisierte Newsfeeds. Julian Krüper problematisierte den Kommunikations- und Wahrheitsgehalt in Folge des Einsatzes von Social Bots mit anderen Konsequenzen. Wenn Bots eine persönliche Identität imitieren, werden die Anforderung partizipativer Gleichheit unterlaufen und eine programmatische Diskursmehrheit inszeniert, die auf den Meinungsaustausch zurückwirke. Während ihre politische Verwendung durch Regulierung begrenzt werden müsse, sei ein grundlegendes verfassungsrechtliches Verbot kaum durchsetzbar.

Automatisierte Entscheidungen und demokratische Legitimität

Den Folgetag eröffnete Christin Schäfer mit einer technischen Einführung in das Thema “Algorithmic Decision Making”, in der es ihr vor allem um eine Entzauberung der neueren Datenverarbeitungstechnologien ging. Eine solche beginne schon bei der Begriffswahl und so plädierte sie dafür, statt von „Machine Learning“, dem „Trainieren“ von Algorithmen oder „selbstlernenden Systemen“ schlicht von Optimierungsverfahren zu reden und die geläufige Bezeichnung „Algorithmic Decision Making“ durch das passendere „automatische digitale Entscheidungssysteme für statistische Prozesse“ zu ersetzen. Derartige Systeme seien keinesfalls auf magische Weise autonom, sondern basierten vielmehr auf wohldefinierten mathematisch-statistischen Operationen. Der sogenannte algorithmische Bias sei dann oft nichts als ein Abbild gesellschaftlicher Prozesse.

Zwei konkrete Anwendungsbereiche derartiger algorithmischer Entscheidungssysteme nahmen sich Thomas Burri und Nadja Braun Binder vor. Während ersterer ein Schema für die Erfassung der ethischen Dimensionen von Polizei- und Militärrobotern vorstellte, das die Vielschichtigkeit der Problematik nicht zuletzt auch grafisch veranschaulichte, beleuchtete letztere den Einsatz von Risikomanagementsystemen durch Finanzbehörden. Vor dem Hintergrund der Gefahr einer Diskriminierung durch algorithmische Datenanalyse, wie sie etwa durch die in den USA eingesetzte Software COMPAS deutlich wird,  betonte sie vor allem die Notwendigkeit von personeller Ergebnisprüfung und wirksamen Kontrollinstanzen. Hierfür kämen insbesondere die Finanzbehörden selbst infrage. Notwendig seien daher die entsprechende Schulung von Finanzbeamt*innen, die Bereitstellung zeitlicher Ressourcen zur Prüfung ausgesteuerter Fälle sowie organisatorische Vorkehrungen zur Rückmeldung von Fehlern und anschließenden Korrektur.

Von einer höheren Abstraktionsstufe aus betrachtete Wolfgang Hoffmann-Riem den gegenwärtigen Trend zum „Legal Tech“ und bahnte sich zwischen den üblichen “skeptischen” und “missionarisch-prophetischen” Positionen den Weg zu einer „gestaltungswilligen“ Perspektive. Zwar brächte der Einsatz digitaler Instrumente das Risiko der Erosion der praktischen Geltung normativer Maßstäbe mit sich, doch dürften dabei die sich eröffnenden Innovationspotentiale nicht aus dem Blick verloren werden. Denn vor dem Hintergrund einer zunehmenden Untauglichkeit des bestehenden Rechts für Probleme des digitalen Zeitalters sei zwar ein Ende des Rechts unwahrscheinlich, sein Gestaltwandel aber unvermeidbar. Schon heute könne ein neuer Governancemodus der „digitalen Technosteuerung“ ausgemacht werden, im Rahmen dessen unter anderem die Qualität juristischer Entscheidungen zunehmend weniger an ihrem Ergebnis als an ihrem technischen Herstellungsprozess und somit auch ihrer Kompatibilität mit dem technisch Möglichen gemessen werde. Hoffmann-Riem warnte daher vor der Gefahr eines „digitalen Neopositivismus“: der Tendenz, das Recht immer positivistischer auszulegen, um es dem Flaschenhals der Computerlesbarkeit anzupassen. Um „Legal Tech“ und demokratische Legitimität aber kompatibel zu machen, sei statt Verdammung vor allem aktive staatsrechtliche Mitarbeit geboten.

Eine Governanceperspektive schlug schließlich Albert Ingold in seiner Analyse von Upload-Filtern in sozialen Netzwerken vor. Ihm ging es darum, technische Formen der Verhaltensbeeinflussung als Teil einer Einheit aus rechtlichen und nicht-rechtlichen Modi der Handlungskoordination zu begreifen. Obgleich etwa unter dem Gesichtspunkt der Informationsfreiheit grundrechtliche Hürden für obligatorische Upload-Filter bestünden, könnten diese nicht kategorial versagt werden, insbesondere wenn durch Ansätze wie Hashfilter keine Personenbezogenheit der Daten gegeben sei. In einer solchen komplexen und multipolaren Konstellation biete sich ein Modell der Ko-Regulierung an.

 

Als Fazit zur Tagung muss zuerst konstatiert werden, dass der Begriff der künstlichen Intelligenz in zahlreichen Beiträgen vor allem als Chiffre der Digitalisierung und der digitalen Medien zu verstehen war und die mit dem Tagungstitel verbundenen Assoziationen so nicht gänzlich eingeholt wurden. Dennoch ist es der Tagung überzeugend gelungen, die zu Beginn festgestellte Spannung schlaglichtartig zu beleuchten und produktive Ansätze zu skizzieren. Insbesondere die Kombination aus empirischer Bestandsaufnahme, technischem Input und rechtswissenschaftlicher Reflektion erwies sich dabei als Gewinn und dringend nötige Erweiterung der Perspektive der Staatsrechtslehre, die – anders als das Privatrecht – bisher eher zurückhaltend auf den digitalen Wandel reagiert hat. Das spürbare Problembewusstsein um die anstehende gesellschaftliche Veränderung und demokratische Krisenerfahrung ließ den Bedarf an einer theoretischen Öffnung zu den Technik- und Sozialwissenschaften deutlich werden. Die Aktualisierung des Rechts für die digitale Gesellschaft geht über die dogmatische Anpassung einzelner Normen hinaus und wirkt bis auf die fundamentale Form des Rechts zurück. Die Reflexion der eigenen gesellschaftlichen Grundlagen, die der deutschen Staatsrechtslehre nun bevorsteht, hat hier einen ersten Anfang gemacht.

 

Sebastian Berg ist wissenschaftlicher Mitarbeiter in der Forschungsgruppe „Demokratie und Digitalisierung“ des Weizenbaum-Instituts für die vernetzte Gesellschaft in Berlin und forscht zur politischen Theorie des digitalen Wandels.

Florian Eyert ist wissenschaftlicher Mitarbeiter in der Forschungsgruppe „Quantifizierung und gesellschaftliche Regulierung“ des Weizenbaum-Instituts für die vernetzte Gesellschaft in Berlin und forscht zu den Implikationen künstlicher Intelligenz für Prozesse sozialer Ordnungsbildung.

2 Kommentare zu “Ein neues Recht für die digitale Gesellschaft? Tagungsbericht „Demokratie und Künstliche Intelligenz“ (Trier)

  1. Der ‚Kybernetische Regelkreis‘ (KRK; Eingangswert(e), Ausgangs-Istwert, A.-Sollwert, Stellglied, Stellwert), auf dem alles (Selbst-) Lernen, alle KI/Anpassungsalgorithmen basieren ist zunächst ja eher anti-positivistisch gerichtet, indem eben nicht das Verfahren als solches eine „Richtigkeit“ im Ergebnis garantiert bzw. ein Ergebnis a priori als „richtig“ bestimmt, weil es aus einem „richtigen“ Verfahren sich ergibt, sondern nur das „Ergebnis“ im Vergleich mit einem Ergebnis-Desiderat (Sollwert) die Richtigkeit oder Falsifität eines Verfahrens-/System-Zustandes (Stellwert u. Stellglied) bestätigt oder falsifiziert und ggfls. zu korrigieren VERSUCHT.
    Dabei ist das „Sollen“, der Ergebnis-Sollwert, dem KRK zunächst „transzendent“, weil ‚von außen‘ (voraus-) gesetzt.
    Allerdings können – wie es aussieht: allein unter dem abstrakten Grobziel der Eigenpersistenz(EP) im evolutionär-kompetitiv-selektiven Feld -, konkrete Sollwerte wieder Ergebnisse/Istwerte von KRK-Verfahren sein.
    Bestätigt sich die EP-Vermutung als generalisierte/generalisierbare Zielsetzung aller lernenden Systeme, dann ist sowas das ideale Mittel des Autoritarismus, – der bekanntlich nur je seine (Weiter-) Existenz im Auge hat, vor- u. mitgängige Hilfs-Ideologen und -Ideologien alsbald wegrasiert, denn Autoritäres lässt sich eben auf die Dauer „von niemandem“ (außer sich selbst) „sagen, was zu tun oder zu lassen, was richtig oder falsch ist“.

    Diesen Verhältnissen unterfällt offenbar schon die intellektuelle Rezeption der Filterblase, wenn behauptet wird, für diese gäbe es keine empirische Evidenz:
    Gerade die aktuelle FaceBook-„Krise“ zeugt ja davon, wenn unter hunderten von Artikeln und Kommentaren nur einer ist, – bloß ein Kommentar, nicht von mir, noch dazu -, der darauf hinweist, daß es beileibe doch nicht nur um m. o. w. registrierte „Facebook-Nutzer“
    geht, sondern um ALLE, die von ZEIT bis theorieblog.de auch nur deren Seiten aufrufen.
    Und wo bisher NICHTS darüber zu finden war, daß mit der Script-Einbindung von FBs „all.js“ oder anderen „Ressourcen“ im head-tag einer Webpage letztlich die komplette Seitenkontrolle an FB übergeben wird, die im politischen Falle-des-Falles dann eben die verallgemeinernde Verständigung bis in die Verabredung von Aktionen unmöglich machen kann, von der vorgängigen Zuteilung von Werbegeldern u. a. Ressourcen (->Persistenz-Paradigma) ganz zu schweigen.

    Dass die „Filterblase“

  2. Hochpolitisch und von daher auch it- u. politiktheorethisch relevant ist auch die Frage, wann ein KI-System denn AUSGELERNT haben soll: Tay war diesbezüglich ja zu allen Seiten noch so offen, daß ein paar Leute, die sich dem System verstärkt zuwandten (was offenbar schon eine positive back-propagation auslöste, indem das einen Bestätigungs-Vektor ansprach), innerhalb kurzer Zeit das Ding dazu bringen konnten, nur noch Hassformeln auszusprotzen.

    Während der Ausbildung wurde dazu, das AUSGELERNT haben, auf die „Hebbsche Lernregel“ verwiesen, die ich nie wirklich verstanden habe, und wozu mir weder damals noch heute irgendeine Implementation, geschweige denn technische oder reflektierende Literatur dazu bekannt geworden sind, trotz wiederholter Suchen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert