Orwell 3.0

 In FEATURED, Kultur, Wirtschaft

In der Maschinenstadt. Szene aus “Matrix: Revolutions”

Digitalisierung bezweckt die Manipulation und Unterwerfung unserer Gedanken und Gefühle. „Digitalisierung“ wird uns auf allen Kanälen aufgedrängt. Man kann das Thema jedoch nicht seriös diskutieren, ohne seine politischen und gesamtwirtschaftlichen Aspekte zu berücksichtigen. Neue Software, wie sie zum Beispiel im Schulunterricht eingesetzt wird, sammelt nicht nur Daten über den menschlichen Geist — sie wirkt auch verformend und disziplinierend auf diesen zurück. Der Mensch gibt die Kontrolle über sein Leben mutwillig an undurchschaubare Algorithmen ab. Bald herrscht, wie in einigen Science-Fiction-Filmen, die Maschine über den Menschen, und der genormte Konsumbürger wird nach den Bedürfnissen der Wirtschaft zurechtgeknetet. Ein Kassandra-Ruf. (Matthias Burchardt)

„Digitalisierung“ wird uns auf allen Kanälen aufgedrängt. Man kann das Thema jedoch nicht seriös diskutieren, ohne seine politischen und gesamtwirtschaftlichen Aspekte zu berücksichtigen. Neue Software, wie sie zum Beispiel im Schulunterricht eingesetzt wird, sammelt nicht nur Daten über den menschlichen Geist — sie wirkt auch verformend und disziplinierend auf diesen zurück. Der Mensch gibt die Kontrolle über sein Leben mutwillig an undurchschaubare Algorithmen ab. Bald herrscht, wie in einigen Science-Fiction-Filmen, die Maschine über den Menschen, und der genormte Konsumbürger wird nach den Bedürfnissen der Wirtschaft zurechtgeknetet. Ein Kassandra-Ruf.

Ja. Man kann digitale Unterrichtsmedien nach Maßgabe didaktischer Kriterien sinnvoll einsetzen. Und ja, die Schülerinnen und Schüler sind in ihrem Alltag permanent von dieser Technik umgeben, sodass eine medienethische und -pädagogische Aufarbeitung in der Schule notwendig ist. Und noch mal: Ja, es hat Sinn, wenn die jungen Menschen Medien nicht nur konsumieren, sondern auch schöpferisch mit ihnen umgehen lernen. Und ein letztes Ja: Wenn denn die Schule personell und baulich perfekt ausgestattet sein wird, wenn Lehren und Lernen in Beziehung, Bildung statt Kompetenz, Unterricht statt mechanischer Selbststeuerung stattfinden, dann richtet auch der gezielte Einsatz von Smartboards, Tablets und Cyberbrillen keinen gewaltigen Schaden an. Ja.

Alle diese Jas sind trivial, es sind medienpädagogische Binsenweisheiten, die seit den 1970er Jahren abgefrühstückt sein sollten, und es sind zugleich Nebelkerzen. Wir starren auf die feurige Mitte und verlieren aus dem Blick, was der Nebel verhüllen soll. Die Diskussion über Smartboards- und Tabletklassen bleibt naiv, wenn man sie nicht im Kontext globaler politischer und ökonomischer Transformationen führt. Zu diesen Transformationen sage ich kategorisch: NEIN! Ein Nein, das so groß ist, dass all die kleinen Jas dagegen verblassen. Ein Nein, dem jeder beipflichten müsste, dem Menschlichkeit, Demokratie und Frieden am Herzen liegen. Ein Nein, das umso lauter erschallen müsste, je mehr uns die Digitalisierung als alternativlos dargestellt wird. Die Neue Zürcher Zeitung (NZZ) kündigt exemplarisch eine Veranstaltung an: „Digital ist normal, Alternativen gibt es nicht. 0815 war gestern, die neue digitale Realität heißt 0915.“ (1)

Der FPD-Hoffnungsträger Christian Lindner lässt sich im Wahlkampf stylisch fotografieren und verkündet: „Digital first. Bedenken second.“ Beide Zitate sind Ausdruck von besorgniserregender Unbildung: „0815“ versteht die NZZ offensichtlich gemäß der Redewendung als „Mittelmaß“, „veraltetes Material“ oder „schematisches Vorgehen“. Was immer „0915“ bedeuten mag oder dem „0815“ hinzufügen könnte, das nicht durch „01015“ überbietbar wäre, so scheint doch in Vergessenheit geraten zu sein, dass 08/15 ein Maschinengewehr bezeichnet, an dem Soldaten durch die Routine von Schießübungen auf routiniertes Töten vorbereitet wurden: Krieg ist normal, Alternativen gibt es nicht!

Ihr lieben Alternativlosigkeitsbeschwörer: Wenn das doch alles so alternativlos kommen wird, warum finanziert Ihr dann teure PR-Kampagnen, warum schwört Ihr die Öffentlichkeit auf die digitale Transformation ein? Liegt es nicht daran, dass Ihr genau wisst, dass es Alternativen gibt?

Und, lieber Christian Lindner: Demokratische Vorgänge gehen genau umgekehrt. Zuerst gibt es Sachklärung, den Abtausch von Argumenten, Meinungsbildung und so fort und erst danach werden Programme beschlossen und umgesetzt. Bezogen auf die Schule:

Wie wäre es, wenn wir diesmal keine weitere Reformruine (Vergleiche PISA, Kompetenzorientierung, Schulzeitverkürzung, Selbstgesteuertes Lernen …) in die Welt setzten, in der dann Lehrkräfte und SchülerInnen wie Versuchskaninchen vegetieren müssen, sondern wenn wir diesmal vorher nachdenken?

Dann muss man nämlich nicht Jahre später zerknirscht eingestehen, dass es nicht funktioniert hat, oder behaupten, dass die eigentlich brillante Reform leider keine Akzeptanz bei den Menschen gefunden hätte. Wie wäre es mit ein wenig Kontakt mit der Realität und einem Dialog mit Betroffenen und skeptischen Wissenschaftlerinnen? Vorher!

Es gibt keine Sicherheit

Ab dem 28. Mai 2018 gilt auch für Deutschland und die Schulen die EU-DSGVO (2), die europäische Datenschutzrichtlinie. Hier werden Verantwortlichkeiten zugewiesen, Dokumentationsaufgaben erlassen, Informationspflichten und Auskunftsrechte definiert und so fort. Eine juristische Bewertung dieser Richtlinie, die jeweils noch national umgesetzt wird, steht mir als Nicht-Juristen nicht zu. Der Informationsrechtler Thomas Hoeren allerdings spricht von der „größten Katastrophe des 21. Jahrhunderts“ (3).

Gleichwohl ist eine politische Bewertung möglich und nötig: Es zeichnet sich ab, dass die großen Datenkraken (wie Apple, Google) durch dieses Rechtswerk nicht gezähmt werden können. Bei ihnen verschwindet alles im Kleingedruckten der AGBs, denen wir zustimmen, ohne sie zu lesen. Für Schulen und Betriebe dagegen entstehen erhebliche Arbeitsbelastungen und rechtliche Grauzonen. Eltern können zum Beispiel Datenauskunft verlangen oder Ehemalige haben ein Recht auf Löschung. Die Beweislast in Sachen Datenschutz und -sicherheit, Datenintegrität und Vollständigkeit der Löschung liegt bei der Schule. Bemerkenswert ist auch die Zuweisung von Verantwortlichkeit in Haftungsfragen. Die DSGVO unterscheidet zwischen dem Verantwortlichen und dem Auftragsverarbeiter, also zum Beispiel einem Unternehmen, das Clouddienste, Lernsoftware, Verwaltungssoftware oder Verarbeitungsfunktionen zur Verfügung stellt.

Die Frage ist nun: Wer kann eigentlich diese Verantwortung übernehmen? Wer kann wirklich für die Sicherheit von personenbezogenen Daten geradestehen? Wie kann sie gegenüber dem Auftragsverarbeiter eingefordert werden, wenn der auf einem anderen Kontinent sitzt? Die Sanktionen jedenfalls belaufen sich auf bis zu 20 Mio. Euro (Art. 83). Diese Rechtskonstruktion funktioniert nun ganz getreu nach dem neoliberalen Modell der Individualisierung gesamtgesellschaftlicher Probleme. In diesem Zusammenhang ist auch bemerkenswert, dass die Datenmündigkeit auf 16 Jahre festgelegt wird (Art. 8), sodass Pubertierende weit reichende Selbstoffenbarungserklärungen, zum Beispiel gegenüber WhatsApp oder Facebook, unterzeichnen dürfen, ohne volljährig zu sein, ohne dass Erziehungsberechtigte und Fürsorgepflichtige intervenieren könnten.

Die Praxis zeigt, dass es im Rahmen der bestehenden Technik keine Datensicherheit geben kann. Spectre und Meltdown (4) stehen für erhebliche Sicherheitslücken in gängigen Prozessoren und bilden wohl nur die Spitze des Eisbergs globaler Datenunsicherheit. Ganz aktuell ist ein Angriff auf das norwegische Gesundheitssystem bekannt geworden, von dem die Hälfte der Staatsbevölkerung betroffen ist. (5) Die rasche Folge dieser Schreckensmeldungen führt perverserweise nicht zu einer höheren Sensibilität oder gar zu Kritik an den Digitalisierungsversprechen, sondern vielmehr zu fatalistischer Gleichgültigkeit. Ein Phänomen, das sich schon nach den Snowden-Enthüllungen beobachten ließ.

Nach der ersten Aufregung haben wir uns schnell mit der globalen Totalüberwachung abgefunden und haben das Ausgeliefert-Sein als alternativlos hingenommen, da die Kontrolle so leicht zu vergessen ist, wenn wir über den Touchscreen wischen und glauben, mit unserem Gerät allein zu sein.

Zur Auffrischung des Gedächtnisses sei hier auf das „Now You Know!“-Projekt von Constanze Kurz und Frank Rieger verwiesen (Kurz/Rieger 2017), wo alle wesentlichen Artikel zu den Snowden-Enthüllungen als Hörbücher kostenlos verfügbar sind.

Zusammengefasst: Niemand, das heißt auch keine Lehrkraft, kann die Verantwortung für die Sicherheit der Daten von Schülerinnen und Schülern übernehmen. Über die rechtliche Problematik hinaus stellt sich die Frage der Fürsorgepflicht für Schutzbefohlene. Das bedeutet, selbst wenn es Lösungen für die Haftungsfragen geben wird, müsste sich doch das pädagogische Gewissen regen und solange es keine Sicherheit gibt, sollte man auf diese Technologien verzichten.

Ganz konkret sollten sich Schulen, Gewerkschaften und Lehrerverbände dringend um verbindliche Rechtsauskunft kümmern, damit sie sich hinreichend und rechtzeitig auf die DSGVO vorbereiten können.

Big Data hasst den Datenschutz

Datenschutz und Datenvermeidung sind geborene Feinde von Big Data. Deshalb ist zu vermuten, dass Datenschutzauflagen demokratisiert und der hemmungslose Datenzugriff privatisiert werden. Das heißt, Schulen, Ärzte, Handwerker und Betriebe werden drangsaliert und die globalen Datenunternehmen und Geheimdienste entlastet. Vergessen wir nicht, dass die Daten ja vorgeblich das Öl des 21. Jahrhunderts sind. Datenvermeidung oder Datenschutz aber hemmen die Gier der digitalen Ölbarone. Der Münchener Informatiker Werner Meixner verweist auf das vitale Interesse der IT-Industrie an allen erdenklichen Daten, die über das Internet der Dinge (IoT, Internet of Things), den Menschen abgeluchst werden sollen. Meixner schreibt im Januar 2017 in der Süddeutschen Zeitung:

„Die Ursprünge menschlicher Kreativität liegen unbestreitbar in jenem intimsten Bereich der seelischen und geistigen Existenz eines Menschen, den man Privatsphäre nennt. Das Wesen der Privatheit erschließt sich, wenn man feststellt, wozu Maschinen nicht fähig sind und was allein der Mensch zu produzieren in der Lage ist. Der Mensch produziert private Entscheidungsdaten, die in kreativer Weise mit seinem Verhalten neu erschaffen werden. Der Mensch setzt damit geistigen Rohstoff in die Welt, der nicht von noch so leistungsfähigen Robotern produziert werden kann. Dieser geistige Rohstoff ist die größte und unversiegbare Quelle von Reichtum, des einzigen und wirklichen Reichtums, der allen Menschen von Natur aus als natürliches Eigentum mitgegeben ist.

Um die Nutzung dieses Rohstoffes ist ein Kampf entbrannt. Man ist an koloniale Zeiten erinnert, in denen der unerschöpflich scheinende Reichtum an Rohstoffen Afrikas mit Zustimmung der dortigen Landesfürsten von fremden Mächten ausgebeutet wurde, ohne dass die dortige Bevölkerung an den Erträgen teilhaben konnte. Europa ist bei der Nutzung des Rohstoffes der privaten Daten dabei, das Afrika des Informationszeitalters zu werden. Es wurde eine Enteignung in Gang gesetzt, die medial und ernst zu nehmend als Ende der Privatheit prognostiziert wird. Experten der Informationsindustrie diskreditieren das Recht auf individuelle Privatsphäre als ‘Auslaufmodell’ mit dem Ziel, den geistigen Rohstoff, der von Menschen produziert wird, wenigen global agierenden Konzernen zu übereignen.“

Es bedarf nicht viel Phantasie, um sich vorzustellen, dass insbesondere schulische Daten von höchstem Interesse sind. Es sei an den Bertelsmann-Vorstoß zur Digitalisierung von Bildung erinnert, wo das Programm Knewton propagiert wird:

„Knewton durchleuchtet jeden, der das Lernprogramm nutzt. Die Software beobachtet und speichert minutiös, was, wie und in welchem Tempo ein Schüler lernt. Jede Reaktion des Nutzers, jeder Mausklick und jeder Tastenanschlag, jede richtige und jede falsche Antwort, jeder Seitenaufruf und jeder Abbruch wird erfasst. ‚Jeden Tag sammeln wir tausende von Datenpunkten von jedem Schüler’, sagt Ferreira stolz. Diese Daten werden analysiert und zur Optimierung der persönlichen Lernwege genutzt. Komplexe Algorithmen schnüren individuelle Lernpakete für jeden einzelnen Schüler, deren Inhalt und Tempo sich fortlaufend anpassen, bei Bedarf im Minutentakt. […] Schon heute berechnet Knewton zuverlässig die Wahrscheinlichkeit richtiger und falscher Antworten sowie die Note, die ein Schüler am Ende eines Kurses erreichen wird. Eines Tages braucht es wohl keine Prüfungen mehr; der Computer weiß bereits, welches Ergebnis herauskommen wird.“ (Dräger/Müller-Eiselt 2015, S.24f)

Die hier anfallenden Daten sollen im Rahmen von Learning Analytics durch Big Data zur Optimierung von Lernen ausgewertet werden. Nebenbei sind die hier produzierten Schülerprofile sicher auch für Unternehmen interessanter als Gutachten oder Notenzeugnisse, da sie viel genauer Aufschluss geben können über Charaktermerkmale, Intelligenz, Auffassungsgabe, Potentiale und so fort.

Eine gierige „Gottheit“

Big Data steht für Allwissen, Allmacht und Allgegenwart, bloß dass hier kein allgütiger Gott (Vgl. Kling 2017), sondern ein Leviathan des ökonomisch-informationellen Komplexes errichtet wird, der zum Vorteil der Wenigen die Vielen unterwirft und ausbeutet. Der Stuttgarter Bischof Gebhardt Fürst spitzt treffend zu:

„Die Digitalisierung durchdringt alle Bereiche unseres Lebens von Wirtschaft bis Politik, Kultur, Familie und Freizeit. Eine ungehemmte Entwicklung könnte dazu führen, dass die Algorithmen herrschen und letztlich alles bestimmen. Der Mensch verlöre seine Freiheit und seine Würde. Seine Urteilsfähigkeit wäre beschädigt. Das wäre eine Katastrophe, ein zivilisatorisches Desaster.“ (6)

Was meint Big Data genau? Algorithmen werden mit Daten gefüttert – je mehr desto besser – und wenden dann statistische Verfahren auf diese Daten an. Sie sind in der Lage, Wissen zu generieren, das zur Steuerung von Menschen genutzt werden kann. Die Digitalisierungsoffensive der Bundesregierung macht diesen Aspekt ausdrücklich stark: „Die im Rahmen des Lernens mit digitalen Medien gewonnennen Erkenntnisse zum Lernprozess haben neue Daten und Grundlagen für die empirische Bildungsforschung geliefert.“ (BMBF 2016, S. 25)

Über das Nutzungsverhalten von Lernsoftware hinaus ist Learning Analytics interessiert an biometrischen Daten (wie Schlaf, Herzschlag), ortsbezogenen Daten, Bewegungsprofilen, Konsumverhalten, privater Mediennutzung, Text- und Bildäußerungen auf sozialen Netzwerken. Statistische Verfahren bilden Cluster, klassifizieren und verknüpfen diese Informationen, heben Korrelationen hervor oder markieren Ausreißer. Die Validität der „Erkenntnisse“ wächst mit dem Quantum an Daten, die zur Verfügung stehen.

Andreas Bernhard, Leuphana-Universität, macht darauf aufmerksam, dass dieser Zugriff viele Gemeinsamkeiten mit erkennungsdienstlichen Verfahren der Kriminalistik aufweist: Profiling und Ortung werden ausgedehnt von Verbrechern auf alle Menschen. Allein dadurch verändern sich Verhalten und Selbstwahrnehmung: „Wir leben selbstverständlich nicht in einem Polizeistaat, aber wir sind auf eine Weise erfasst, wie es kein Polizeistaat besser könnte, aber wir arbeiten an dieser Erfassung freiwillig mit.“ (A.a.O.)

Was aber ist der Ertrag der statistischen Verfahren? Wie schon beim Programm Knewton versprochen, soll eine Vorhersage von Ergebnissen oder Verhalten möglich sein. Die Ausreißererkennung gibt die Gelegenheit zur Intervention bei auffälligem Verhalten. Motivation wird überwacht und Überwachung motiviert. Gruppenprofile werden erstellt und nach Produktivität bewertet, sodass bei Bedarf Umgruppierungen vorgeschlagen werden.

In der Summe eröffnet Big Data ein Wissensfeld, das nicht nur Informationen erhebt und gliedert, sondern auch Ansatzpunkte sozialtechnologischer Steuerungszugriffe identifiziert und die erfolgswahrscheinlichsten Interventionen vorschlägt. Mehr Herrschaftswissen geht nicht.

Neben dem ethischen Aspekt der Legitimität dieses totalitären Zugriffs auf den Menschen, der eigentlich die Differenz von Nutzung und Missbrauch gar nicht mehr zulässt, stellt sich die Frage, ob wir in diesem Kontext eines quasi-göttlichen Algorithmus fortan überhaupt noch die menschliche Vernunft und deren Königsdisziplin, die Wissenschaft brauchen werden? Menschliche Urteilskraft hat weder die Datenbasis noch die Rechenkapazität oder -geschwindigkeit von Super-Computern. Sollten wir uns dann nicht lieber dem neuen Gott beugen, seiner Offenbarung Glauben schenken, seinen Geboten folgen, Digitalisierungskritiker als Häretiker dem Scheiterhaufen zuführen und denjenigen unter Strafe stellen, der es wagt, sich ohne Anleitung der Algorithmen des eigenen Verstandes zu bedienen?

Sollte Big Data in der absehbaren Weise an Bedeutung gewinnen, wird es jedenfalls um den Aufklärungsanspruch Kants nicht mehr gut bestellt sein. Aus Faulheit und Feigheit kriecht der postmoderne Mensch zurück in die Bevormundung durch die Maschine. Wie schrieb Chris Anderson, ehemaliger Chefredakteur des Magazins wired: „Das Ende der Theorie: Die Datenflut macht die wissenschaftliche Methode überflüssig.“ (zit. nach: Antes 2018)

Am Beispiel der Medizin macht Gerd Antes vom Cochrane Institut in Freiburg auf die Schattenseiten von Big Data aufmerksam:

„Daten sind das Öl des 21. Jahrhunderts. Was liegt näher, als diesen Schatz auch für unsere Gesundheit zu nutzen? Auch in diesem Bereich findet sich eine Begeisterung, die die üblichen Nutzen-Risiko-Kosten-Abschätzungen überflüssig erscheinen lassen. Der jüngste Beleg dafür ist eine Stellungnahme des Deutschen Ethikrats zu ‘Big Data und Gesundheit’, in der kritiklos das Hohelied auf Big Data angestimmt wird. Öl kann man jedoch nur verkaufen – oder man muss es in aufwändigen Prozessen zu nutzbaren Produkten raffinieren. Wie sieht es in diesem Bild mit der Wissensraffinerie aus, die von Daten zu verwertbarem Wissen und anwendbaren Verfahren führt?

Das dafür von Big Data entwickelte Modell ist schnell beschrieben: Die enormen technischen Möglichkeiten in der Datenwelt machen die mühsame Suche nach nützlichen Effekten überflüssig. Wir haben die Ära der Kausalität verlassen und befinden uns bereits mitten im Zeitalter der Korrelation. Das alte Paradigma, dass Theorie und Daten zur Generierung von Hypothesen führen, die wiederum empirisch durch Studien bestätigt werden müssen, gilt nicht mehr. Korrelationen führen aufgrund beliebig erweiterbarer Datenmengen nicht mehr nur zu Hypothesen, sondern zu bestätigtem Wissen. […]

Eine ernsthafte Diskussion über das Risiko von Big Data ist überfällig, denn die zentrale Begründung für die Versprechungen durch Big Data ist falsch: Mehr Daten bedeuten nicht automatisch mehr Wissen. Im Gegenteil, dieser der Intuition widerstrebende Tatbestand bedeutet, dass selbst die Hinzunahme weiterer korrekter Daten die Erkenntnissituation verschlechtern kann. Damit ist die Konstruktion, den Wissenszuwachs und damit die Handlungsgrundlage auf wachsende Datenmengen zu gründen, mehr als fragil. Wenn mit zunehmender Datenmenge das störende Rauschen zunimmt, sind echte Effekte weniger leicht zu finden, und der Anteil der falsch identifizierten, also unechten Effekte nimmt zu. Diese Falsch-Positiven sind eines der zentralen Probleme der empirischen Forschung und können durch den Big-Data-Ansatz über die Korrelationen zu voller Blüte gelangen.“ (Antes 2018)

Big Data ist das Ende der Aufklärung

Big Data ist kein Gott, sondern ein Götzenbild, hinter dem sich die hässliche Fratze des Neoliberalismus kaum verbergen kann. Das hier propagierte „Wissen“, das die Grundlage von politischen Entscheidungen und individueller Lebensführung sein soll, genügt nicht den Ansprüchen von Wissenschaftlichkeit, wie sich leicht zeigen lässt. Und deshalb ist Big Data auch kein Ausdruck menschlichen Wahrheitsstrebens, sondern eine Ausgeburt des Willens zur Macht. Die Inthronisierung des Algorithmus als Orakel aus dem Silicon Valley, das berauscht von der Datenflut ausruft: „Ich erkenne Dich selbst!“, trifft in eine Situation, wo die alte Regentin, die Wissenschaft als Instanz der Erkenntnis systematisch geschwächt wurde und nun de facto abgedankt hat. Bologna, Drittmittelsteuerung, Hochschulgesetzgebung, Ideologisierungsprogramme, Ökonomisierung und so fort machen es WissenschaftlerInnen schwer, unabhängig zu bleiben.

Hinzu kommt, dass die Postmoderne ohnehin die Unmöglichkeit jeglicher Wahrheit zur unumstößlichen Doktrin erhoben hat, sodass Theorie und Ideologie als ununterscheidbare Spielarten ein und desselben anonymen Diskurses erscheinen sollen. Der Vertrauensverlust in die sachliche und sachgetreue Autorität der Wissenschaft wird flankiert von der Glaubwürdigkeitskrise der Medien, sodass Fake News und alternative Fakten von gesicherten Meldungen kaum noch voneinander abzugrenzen sind. Wo Unsicherheit und Ungewissheit wuchern, wächst die Sehnsucht nach dem starken Mann, der diesmal Alexa oder Siri heißt und als säuselnde Frauenstimme aus den Endgeräten die Führung übernimmt, nachdem er in der Demütigung von Schach- oder Go-Weltmeistern seine Überlegenheit demonstriert hat. Doch das ist Show. Künstliche Intelligenz darf weder vergöttert, noch dämonisiert werden. Antes nennt die eigentlichen Akteure:

„Der Welt wird versprochen, mit Big Data in eine neue Ära einzutreten. Tatsächlich ist sie jedoch schon seit Jahren Geisel von GAFAM (Google, Apple, Facebook, Amazon, Microsoft) und Komplizen. Ihr beugen sich auch jene, die uns eigentlich schützen sollten, wie Ministerien, Großforschungseinrichtungen und Universitäten.“ (Antes 2018)

Aus der Perspektive der Erkenntnistheorie ist die Sache ganz einfach. Big Data kann keine Wahrheit finden, sondern nur Wahrscheinlichkeiten. Die Verknüpfung von Phänomenen erfolgt nach dem Prinzip der Korrelation, Kausalität ist damit nicht auszumachen. Das heißt, man kann zum Beispiel die Erfolgswahrscheinlichkeit von medizinischen Therapien oder Lehrmethoden in Prozentzahlen vorhersagen, aber nicht warum oder wie Medikamente oder pädagogische Konzepte wirken. Big Data ist ein Verfahren der Datenverarbeitung, Wissenschaft ist den Phänomenen hinter den Daten verpflichtet. Sie will verstehen, sucht Erklärungen. Dazu macht sie ihre Methoden öffentlich und sucht den Austausch mit anderen, um die Geltung von Aussagen, Modellen und Theorien zu prüfen. Wissenschaft ist ihrem Wesen nach exoterisch. Big Data ist esoterisch, die Nachvollziehbarkeit durch andere Forschungssubjekte ist nicht gewährleistet.

Hinzu kommt, dass Big Data nur seine Rationalität (statistische Datenauswertung) über alle Gegenstandbereiche ausdehnt. Wissenschaft ist in der Methodenwahl gegenstandssensibel: Medizinische und pädagogische Forschung unterscheiden sich zwar nicht im Anspruch auf Wissenschaftlichkeit, wohl aber in den einzelnen Forschungsmethoden. Der entscheidende Punkt aber ist wohl, dass die Wissenschaft den Zweifel an der eigenen Arbeit und den Ergebnissen zum Leitprinzip erhoben hat. Das Falsifikationsprinzip fordert dazu auf, jegliche Erkenntnis unter einen skeptischen Vorbehalt zu stellen. Big Data, so wie es von den Kardinälen der IT-Branche inszeniert wird, hat sich vom Zweifel emanzipiert und verkündet ex cathedra. Die funktionale Echtzeitgeltung beruht ja gerade nicht auf wissenschaftlichen Verfahren, die sie untermauern, umhegen oder domestizieren könnten.

Wenn die Wahrheitsfrage suspendiert ist, gilt, was gilt: Wenn Big Data Ihre Krankheitsrisiken berechnet, dann wird dies wohl zukünftig zur Grundlage von Versicherungsbeiträgen, egal ob der Algorithmus irrt oder nicht. Die Beweislast liegt bei Ihnen, und wie wollen Sie diesen Beweis führen? Wenn Drohnen autonome Tötungsentscheidungen treffen werden, weil Big Data als Ermittler, Richter und Vollstrecker die TerroristInnen identifiziert, aburteilt und hinrichtet, gibt es für die Opfer keine Revision, keine zweite Instanz. Wenn der Algorithmus ein Kind als Minderleister abstempelt, wird dieses Verdikt sein Leben bestimmen. All dies sind Tatsachenentscheidungen, die nicht aus Gründen gelten, sondern weil es die Maschine exekutiert hat.

Damit entmündigt Big Data auch die pädagogische Urteilskraft, den pädagogischen Takt der Lehrkraft, das Fingerspitzengefühl. Auch das Ende der Erziehungswissenschaft und der pädagogischen oder bildungsphilosophischen Reflexion ist besiegelt. Auch gesellschaftliche Diskussionen und politische Debatten über Sinn und Zweck, über Normen und Ziele von Bildung haben sich erledigt. Das bedeutet allerdings nicht, dass der Algorithmus rein pragmatisch und ideologiefrei wäre. Ganz im Gegenteil: Die neoliberale Ideologie des homo oeconomicus oder der transhumanen Selbstoptimierung durch social engineering feiern hier den Endsieg, weil die impliziten Wertentscheidungen, Interessen und Machtkonstellationen nun jeglicher Kritik entzogen sind.

Human Ranking und digitaler Totalitarismus

Von Big Data und Totalüberwachung ist es nur noch ein kleiner Schritt zur Digitalen Diktatur. Das ist kein Science Fiction, sondern anbrechende Wirklichkeit, zum Beispiel in China. Felix Lee schreibt 2018 in der Märkischen Allgemeinen:

„Ein gewaltiges Volkserziehungsprogramm
Was derzeit in China beginnt, ist ein gewaltiges Volkserziehungsprogramm. Vom Jahr 2020 an soll das „Social Credit System“ sämtliche Chinesen erfassen. Es ist der weltweit bislang einmalige Versuch, ein ganzes Volk zu Musterbürgern zu machen. Sie für gutes Verhalten zu belohnen und für schlechtes zu strafen. Es ist eine Mischung aus positiver Pädagogik und harter Hand, an der sich die chinesische Führung derzeit versucht. Die Grundlage dafür: neueste Überwachungstechnik, die aus einer unüberschaubaren Masse jeden Einzelnen sofort identifiziert. Die digitale Neuerfindung der Diktatur.“

Hier verschränken sich technische Überwachung, Gesichtserkennung, Selbstoffenbarung in sozialen Netzwerken, Big Data und ein politischer Herrschaftsanspruch zu einem lückenlosen Kontrollsystem, gegen das die Dystopie Orwells geradezu naiv erscheint. Natürlich hat China eine andere politische Tradition. Aber gerade weil wir der Aufklärung und dem Gedanken der Demokratie verpflichtet sind, müssen wir in dieser Frage auch in Westeuropa wachsam sein. Die Infrastruktur des Digitalen Totalitarismus ist auch hier längst vorhanden oder wird gerade unter Hochdruck realisiert. Learning Analytics oder die Software Knewton sind gute Beispiele für diese Tendenz. Der lesenswerte Roman „Qualityland“ von Marc-Uwe Kling spielt dieses Modell einmal sehr plausibel für Deutschland durch.

Es zeugt von digitaler Unbildung, wenn man die Diskussion über die Digitalisierung von Bildung losgelöst von den oben angeführten Kontexten führt. Das Wissen um die Reichweite und die Implikationen der Digitalen Transformation muss deshalb Thema in Schule, Hochschule und politischer Bildung sein. Wir brauchen Bildung am Gegenstand des Digitalen, aber keine Digitalisierung von Bildung!

Redaktionelle Anmerkung: Dieser Artikel erschien zuerst in: Müller, G./ Sloot, A.: „Schule 4.0. Bildung in der digitalen Welt“; Moisburg 2018; S. 23-34.

Quellen und Anmerkungen:

(1) http://www.nzz-xdays.com/x-days-2018, letzter Aufruf, 20.1.18
(2) https://dsgvo-gesetz.de, letzter Aufruf, 20.1.18
(3) https://www.heise.de/newsticker/meldung/Rechtsexperte-Datenschutz-Grundverordnung-als-groesste-Katastrophe-des-21-Jahrhunderts-3190299.html, letzter Auf-ruf, 20.1.18
(4) https://www.heise.de/newsticker/meldung/Meltdown-und-Spectre-im-Ueberblick-Grundlagen-Auswirkungen-und-Praxistipps-3944915.html, letzter Aufruf, 20.1.18
(5) https://www.nzz.ch/international/hacker-attacke-auf-norwegen-ld.1349452, letzter Auf-ruf, 20.1.18
(6) http://www.drs.de/bischof/texte-und-reden/a-bischof-gebhard-fuerst-das-waere-ein-ziv-00006336.html, letzter Aufruf, 20.1.18

Literatur:

Antes, Gerd (2018): Die Medizin im Datenrausch. FAZ 2.1.2018
Bernhard, Andreas (2018): Täterprofile. Das Selbst in den sozialen Medien. Gespräch mit Ralf Caspary. SWR 2. 7.1.2018. (https://www.swr.de/swr2/programm/sendungen/wissen/kriminologie-soziale-medien/-/id=660374/did=20674080/nid=660374/19nlcxd/index.html, letzter Aufruf 21.1.18)
BMBF (2016): Bildungsoffensive für die digitale Wissensgesellschaft. (https://www.bmbf.de/files/Bildungsoffensive_fuer_die_digitale_Wissensgesellschaft.pdf, letzter Aufruf, 21.1.18)
Dräger, Jörg/Müller-Eiselt, Ralf (2015): Digitale Revolution. München: DVA.
Kling, Marc Uwe (2017): Qualityland. Berlin: Ullstein.
Kurz, Constanze/Rieger, Frank (2017): Now You Know. (http://nowyouknow.eu, letzter Aufruf 21.1.18)
Lee, Felix (2018): China belohnt den Idealbürger. Märkische Allgemeine. 1.1.2018. (http://www.maz-online.de/Nachrichten/Politik/China-belohnt-den-Idealbuerger, letzter Aufruf 21.1.18)
Meixner, Werner (2017): Big Data. Wie die IT-Industrie die Privatsphäre aushöhlt. Süddeutsche Zeitung. 1.1.2017. (http://www.sueddeutsche.de/digital/aussenansicht-die-wichtigste-grenze-1.3316714, letzter Aufruf 21.1.2018)

Dieses Werk ist unter einer Creative Commons-Lizenz (Namensnennung – Nicht kommerziell – Keine Bearbeitungen 4.0 International) lizenziert. Unter Einhaltung der Lizenzbedingungen dürfen Sie es verbreiten und vervielfältigen.

Dank an den Rubikon, www.rubikon.news, wo dieser Artikel zuvor erschienen ist.

Einen Kommentar hinterlassen

Beginnen Sie mit der Eingabe und drücken Sie Enter, um zu suchen