In dieser als postdigital charakterisierten Zeit sind analoge und digitale Welten untrennbar verwoben, große Tech-Konzerne kontrollieren und entwickeln unser Smarthome, unsere Mobilität, bündeln das Internet der Dinge, besitzen digitale Infrastrukturen, Streaming und Gamingwelten, entwickeln Künstliche Intelligenz, Bio-, Geo,- oder Medizintechnologien und versprechen uns ein „Metaverse“, schöner als die reale Welt, die im Klimawandel immer „hässlicher“ wird. In diesem Kontext brauchen junge Menschen mehr Wissen über die grundsätzlichen Möglichkeiten von Datenanalyse, um zu verstehen, wie sich digitale Zukunft entwickeln kann.
Machen Sie doch bitte kurz einmal den Selbsttest auf der nächsten Seite: Wie ist Ihre Haltung zur Datenanalyse? Wenn dieser Test mit vielen Teilnehmenden durchgeführt und ausgewertet würde, ließen sich verschiedene Typen mit unterschiedlichen Einstellungen identifizieren. Gehören Sie dann eher zu den pragmatischen Nutzer:innen, die nicht danach fragen, was mit Daten passiert, oder zu den Bürger:innen, die auf staatlichen Schutz vertrauen, oder nutzen Sie die Datenanalyse selber gerne? Vielleicht sind Sie der Gruppe der Vorsichtigen zuzuordnen, die wissen, dass Alexa mithört, wenn es nicht abgeschaltet wird und die versuchen, durch alternative Apps weniger Daten preiszugeben, oder den Menschen, die Potenzial und Risiken von Datenanalyse prinzipiell verstehen, aber ratlos sind, wie sie handeln können. Und schließlich können Sie ein Mensch sein, der Datenanalyse politisch auffasst und auf dieser Ebene aktiv wird.
Wahrscheinlicher werden Sie sich mehreren Typen zuordnen, denn unser Verhalten ist wenig konsistent. Nicht zuletzt, weil auch das Phänomen Datenanalyse selbst höchst ambivalent ist: mit Chancen für extrem praktische Nutzungsformen und Risiken, die vor allem mit Überwachung und Beeinflussung verbunden sind.
Selbsttest: Wie ist Deine / Ihre Haltung zum Thema Datenanalyse?
Bitte ankreuzen:
- Ohne Daten kein Date und das ist mir einfach wichtiger!
- Ich passe auf meine Daten auf und gebe auf Social Media möglichst wenig preis.
- Wir haben doch die DSGVO – die verbietet das Sammeln von personenbezogenen Daten! Da kann mir persönlich doch nichts passieren!
- Ich weiß, dass ich nicht verhindern kann, dass Daten über mich gesammelt werden – da kann man eh nichts machen.
- Ich finde, Datenanalyse bietet tolle Möglichkeiten: zum Beispiel kann ich endlich das Medienverhalten meiner Kinder kontrollieren und weiß per Tracking auch, wo sie gerade stecken.
- Mir ist es egal, ob Daten über mich gesammelt werden – ich habe nichts zu verbergen!
- Ich befürchte, dass mit den bereits jetzt weltweit verfügbaren Daten Bevölkerungsgruppen genau beschrieben werden können: Hoffentlich bleibt unsere Regierung demokratisch!
- Datenanalyse kann zur Nachhaltigkeit beitragen, zum Beispiel, um Energieverbrauch besser zu steuern oder um zu erkennen, wo die Erdoberfläche gerade besonders stark austrocknet, oder mit Apps, die zeigen, wo das nächste
E-Auto geleast werden kann. - Ich lasse Cookies meistens nicht zu, surfe mit DuckDuckGo und schalte Alexa ab, zumindest, wenn wir uns streiten…
- Datenanalyse kann politische Beeinflussung sehr stark unterstützen, weil man beeinflussbare und unschlüssige Personen identifizieren und ansprechen kann.
- Datenanalyse kann Verhalten verändern, beispielsweise wenn ich weiß, dass meine Fitnessdaten geteilt werden. Mich motiviert das, Normen können unterstützt werden!
- Es gibt Wichtigeres, interessiert mich nicht – und ich hasse Mathe.
Digitales Ökosystem: eine 1 und 100 Nullen
Entziehen können wir uns der Sammlung und Auswertung von Datenspuren nicht. Jetzt, wo die analoge und die digitale Welt untrennbar zusammengewachsen sind, gibt es kein „außerhalb“ mehr. Sind wir doch ohne digitale Nabelschnüre tatsächlich abgeschnitten von relevanten gesellschaftlichen und sozialen Entwicklungen und empfinden es als unangenehm, wenn wir mal nicht ins Netz können. Dabei vollziehen sich der Zugriff der Datensammler und die Beeinflussung durch Dienste und Produkte beinahe geräuschlos; uns fehlt eine „Sensorik für die Sensorik“ hinter den smarten Geräten, wir spüren nicht, wenn Daten abfließen und tun uns schwer, mit den durch Algorithmen gefilterten und aufbereiteten Dienstleistungen kritisch umzugehen.
Viele Dienste sind äußerst praktisch (Navigation, Dating, Suchfunktionen), doch wie können wir erkennen, was eine Suchmaschine uns nicht anbietet? Unter welchen Voraussetzungen können wir darauf vertrauen, dass die Analyse von z.B. Gesundheitsdaten zum „richtigen“ Schluss kommt? Wie kann die individuelle Freiheit gegen scheinbar objektive Prognosen, z.B. hinsichtlich der Leistungsfähigkeit von Arbeitskolleg:innen, oder unserer Neigung, krank oder straffällig zu werden, verteidigt werden? Bei welcher Datenlage darf man einen Menschen als „Gefährder:in“ einstufen?
Auch wenn Einigkeit besteht, dass Kinder und Jugendliche nicht überwacht und ausgespäht werden sollen und Privatheit eine Basisvoraussetzung für Demokratie1 ist, sind viele Erziehende dennoch bereit, Datenanalyse zu Zwecken der Prävention von Lern- oder Gesundheitsrisiken zu nutzen oder mit einer „Parental Control App“ das Medienverhalten ihres Kindes zu kontrollieren und seine Bewegungsmuster zu tracken. Haben wir noch vor einigen Jahren über Datensparsamkeit, Kryptografie und Abstinenz diskutiert, erscheinen diese Ansätze mit Blick auf das umfassende Zusammenwachsen von digitaler und analoger Welt kaum noch zeitgemäß. Und auch die deutsche und europäische Datenschutzverordnung2 schützt uns nicht ausreichend: Überall da, wo persönliche Daten gesammelt werden, müssen wir zustimmen: AGBs, Nutzungsbedingungen, Cookies etc. Wenn wir nicht zustimmen, können wir nicht teilnehmen oder das Gerät/den Service nicht nutzen. Zudem wird es immer besser möglich, Personengruppen zu adressieren, ohne personenbezogene Daten zu nutzen. So gut, dass Google demnächst auf Cookies verzichten kann.
Was macht Google Analytics 4 so spannend?3
- Machine Learning: Algorithmen für eine genauere Analyse von Daten wurden integriert.
- Datenschutz: Sammlung von Daten ist auch ohne Cookies möglich.
- Modelling: GA4 ergänzt fehlende Daten bei Unvollständigkeit über Modellierungsansätze.
- Data Control: Einfachere Administration der Daten.
- Anonymisierung: IP-Adressen der Besucher werden schon im Standard anonymisiert.
- Data-Streams: Nicht nur der Seitenaufruf wird gemessen, sondern auch weitere Ereignisse wie beispielsweise Scrolls und Klicks auf Links.
- Visualisierung: Neues wie Trichter, Tabellen oder Streudiagramme können jetzt visuell dargestellt werden.
Beispielhaft zeigt die Geschichte von Google viele Aspekte auf, die Datenanalyse charakterisieren. Vor 25 Jahren, am 4.9. 1997, gründeten Larry Page und Sergey Brin das Unternehmen. Der Name lehnt sich an Gogool = der mathematischen Bezeichnung für eine 1 mit 100 Nullen an. Damit trägt Google die große Zahl, die riesige Menge an Daten im Namen. Google trug dazu bei, Ordnung in das wachsende Internet zu bringen und Inhalte zugänglich zu machen und diese auch zu bewerten. „Die Macher haben erstmals die Relevanz von Webseiten berechnet. Wie relevant ist ein Inhalt im Netz, bezogen auf die eingetippten Suchbegriffe? Das war neu – und hat funktioniert. Bis heute. Wer wie Google acht Milliarden Suchanfragen pro Tag beantwortet, hat eine ungeheure Macht. Denn so ein Suchdienst entscheidet, was die Leute zu sehen bekommen.“4
Alle lieben es, alles einfach mal zu „googlen“. Unser Verhältnis zu Wissen hat sich durch den immerwährenden Zugang zum Netz verändert: Es kommt nicht mehr darauf an, sich Fakten, Wege oder Zahlen zu merken, es genügt, mit dem „Weltwissen“ verbunden zu sein. Catarina Katzer, Leiterin des Instituts für Cyberpsychologie & Medienethik in Köln, spricht in diesem Zusammenhang jedoch von einer Wissensillusion. Das habe zur Konsequenz, dass viele nicht mehr selbst nachdenken oder Personen aus ihrem Umfeld zurate ziehen würden, um ein Problem zu lösen. Die Medienwissenschaftlerin warnt vor einer Beeinflussung durch die Google-Algorithmen und fordert einen kritischen Umgang mit den Ergebnissen der Suchmaschine. Wer oder was in Google nicht gefunden wird, scheine nicht zu existieren. Zudem entwickeln wir in Krisenzeiten oft ein Verhalten, dass uns besonders intensiv nach Problemen und Gefahren suchen lässt. Der Algorithmus, der auf die Zahl der Suchanfragen reagiert, unterstützt so eine Dynamisierung und Dramatisierung der Prozesse. Für die Psyche könne das extrem belastend sein, so Katzer.5
Wer gestaltet die Zukunft?
Dass das Wissen über die Sender und Inhalte der Suchanfragen sehr wertvoll sein könnte, wurde schnell klar. Google begann, zu den kostenlosen Suchanfragen passende Werbung zu schalten und ging 2004 damit an die Börse, wenige Jahre später entstand die Holding „Alphabet“. Die entwickelte weitere für uns Nutzer:innen höchst attraktive Plattformen und Services wie YouTube, Google Maps, Google Translate und Android, das eigene Betriebssystem. Immer greifen gesammelte Daten und neue Angebotsmöglichkeiten dabei ineinander. Die großen Techplattformen6, bekannt auch als GAFAM (Google, Amazon, Facebook, Apple, Microsoft), handeln nach ähnlichen Prinzipien und können aus ihren immensen Gewinnen weitere Firmen kaufen, eigene technologische Entwicklungen vorantreiben, Infrastruktur, Forschungszentren aufbauen, Konkurrenten aufkaufen. Es entsteht Macht, infrastrukturell, an den Märkten, in der Öffentlichkeit und der Politik.7
Durch „Targeting“ kann Wissen über Trends und Stimmungen ermittelt und Botschaften an die „richtigen“ Gruppen gebracht und die gesamte Bevölkerung überwacht werden. Dabei können die praktischen Anwendungsfelder von Datenanalyse vielfältiger nicht sein und betreffen unseren gesamten Alltag.
Wichtige Anwendungsfelder von Datenanalyse
- Soziometrie ist die Vermessung, Auswertung/Beobachtung und Beschreibung von Eigenschaften und Verhaltensmustern von einzelnen Personen und von Gruppen. Sie dient der Platzierung von Werbung bei der passenden Zielgruppe, ist aber auch für die soziale Kontrolle, die Erfassung und Beeinflussung von Trends und Stimmungen in der Bevölkerung nutzbar.
- Psychometrie ist die Vermessung, Auswertung/Beobachtung und Beschreibung von Befindlichkeiten und psychischen Dispositionen von Personen und Gruppen. Dazu gehören zunehmend die Erfassung von Verhaltensauffälligkeiten, Lernstörungen, die Diagnostik von psychischen Erkrankungen, Suchtneigung, Gewaltbereitschaft, aber auch Prognostik in Bezug auf die Eignung für einen Arbeitsplatz oder auch das Zusammenführen von Profilen möglicher Beziehungspartner in Dating-Apps.
- Biometrie meint die Vermessung, Auswertung/Beobachtung und Beschreibung von biologischen und medizinischen Daten von Einzelpersonen und Gruppen, Pflanzen und Tieren. Dazu gehören viele nützliche Formen der naturwissenschaftlichen Forschung, der medizinischen oder genetischen Diagnostik, der Erfassung von Gesundheitsrisiken von Bevölkerungsgruppen, Langzeitbeobachtung und -vergleiche. Dabei ist die Kontrolle über die Daten für die Urheber:innen besonders schwierig: Anonym zu bleiben, wird immer schwieriger.
- Prozesssteuerung und Überwachung der Menschen am Arbeitsplatz Es gibt kaum noch Arbeitsplätze ohne digitale Technologien. Das Internet der Dinge, KI in der Produktion, Robotik, Medizintechnik, Biotechnologien, in allen Produktionsprozessen werden Daten ausgewertet und zu Steuerungs- und Kontrollzwecken genutzt. Vieles davon trägt zur Effizienzsteigerung und Beschleunigung von Prozessen bei. Allein schon durch diese Beschleunigung gibt es negative Auswirkungen auf Nachhaltigkeit.8 Ressourcenverbrauch und psychosomatische Belastungen steigen nach wie vor mit dem Wachstum der Wirtschaft. Neben den technologischen und logistischen Prozessen sind es auch die arbeitenden Menschen, die zum Gegenstand digital gestützter Kontrolle werden.
In immer mehr Bereichen ziehen wir Datenanalyse für die Unterstützung von wichtigen Entscheidungen heran oder geben Entscheidungen ganz an ein KI-System, an eine Diagnosesoftware, ein Lernprogramm ab. Dabei gibt sich Datenanalyse als ein statistisches Verfahren, das mit einer ultimativ großen Probandenzahl objektiv und wissenschaftlich fundiert vorzugehen scheint. Doch in allen Formen der Datenanalyse werden Interessen und auch Vorurteile in die Fragestellungen, in Auswahl und Auswertungsformen, in die Algorithmen eingeschrieben. Datenanalyse kann soziale Unterschiede oder Rassismen offenlegen, kann sie aber auch verstärken. Bei der Nutzung dieser wirkmächtigen Technologien kommt es darum besonders auf die kritische wissenschaftliche, politische und rechtsstaatliche Rahmung und auf effektive Kontrolle an.

Darum brauchen wir für dieses „Algorithmic Decision-Making“ neue Formen einer „Kritischen (Daten-)Theorie“, die in der Lage sind, in Analyseverfahren eingeschriebene Interessen, Vorurteile oder Rassismen zu identifizieren.
Verantwortung nicht individualisieren
Die (Medien-)Pädagogik beginnt erst schrittweise, das Thema praktisch aufzugreifen. Die kulturelle und technische Dynamik der Entwicklung erschwert es, eine ethisch begründete professionelle Haltung zu finden, aus der sich die nötige Entschlossenheit für didaktische Konzepte und praktisches Handeln entwickeln kann. Klar ist, es reicht darum nicht mehr, Jugendlichen zu empfehlen, einfach den „Privacy Button“ anzuklicken oder „achtsam“ mit ihren Daten umzugehen.
Im Zusammenhang mit Datenanalyse kann (Medien-)Pädagogik im Gegensatz zum bisherigen Vorgehen im präventiven Jugendmedienschutz keine einfachen, individuellen Handlungsmöglichkeiten anbieten. Möglicherweise verschleiern sogar zu kurz gedachte Vermeidungs- oder Verschlüsselungsaktionen die Einsicht in den umfassenden Zugriff auf unsere Daten. Der wichtigste Punkt ist meiner Auffassung nach Aufklärung: Die Grundprinzipien von Datenanalyse sind leicht zu verstehen und öffnen spannende ethische, moralische und politische Fragestellungen.
Dabei muss (Medien-)Pädagogik ihre Grenzen anerkennen und vermeiden, durch den notwendigen Blick auf Kinder und Jugendliche nicht der Versuchung zu erliegen, gesellschaftliche Probleme individuell lösen zu wollen bzw. die Verantwortung dafür zu individualisieren. Vielmehr sollte Medienpädagogik daran mitwirken, Voraussetzungen zu schaffen, damit das, was mit Daten geschieht, stärker politisch ausgehandelt wird.9 Das kann den Einzelnen davon entlasten, allein durch individuelles Verhalten den „Goliath zu Fall bringen zu müssen“ und sich immer wieder ohnmächtig zu fühlen. Natürlich: Ob wir tatsächlich „digitale Zukunft mitgestalten“ hängt vom Engagement vieler Einzelner ab. Das ist zumindest das Ergebnis von Diskussionen, die wir mit Fachkräften, aber auch mit Jugendlichen führten, die oft zuerst wütend oder resigniert reagierten, wenn klar wurde, dass hier individuelle Strategien allein nicht ausreichen. Wie soll man sich also zu einem so umfangreichen und dynamischen Phänomen verhalten?
Haltung annehmen
Ausgehend von einer „Kritischen Daten-Theorie“ könnte eine grundsätzliche Haltung zur Datenanalyse entwickelt werden. Eine Haltung, die
- um das machtvolle Potenzial der Technologien und Verfahren von Datenanalyse weiß, Grundprinzipien und Risiken verstanden hat,
- grundsätzlich nach den Interessen und Mechanismen hinter den Analyseverfahren, Erhebungsformen, Anwendungsfeldern und Ergebnissen fragt,
- die Gestaltung von Technologien (Datenanalyse) nicht als undefinierte „Zukunftsanforderung“ oder „Fortschritt“ liest, sondern
- nach dem Potenzial und dem konkreten Nutzen von Technologien (Datenanalyse) für ein gutes, gerechtes und nachhaltiges Leben fragt,
- dieses Potenzial mitgestalten will und nicht resigniert.
Eine solche aufklärerische und politische Perspektive kann mit zahlreichen, auch klassischen, medienpädagogischen Methoden umgesetzt werden (z.B. journalistischen Herangehensweisen, Blogs, Kampagnen, Aktionen, spielerischen, interaktiven Annäherungen, modellhaften Codingansätzen etc.).
Aufbauend auf die gesellschaftlich zu klärende Frage, wer was mit unseren Daten tun darf, müssen wir uns für wirksame gesellschaftliche Institutionen/Strukturen einsetzen, die sowohl die notwendige Expertise und Reichweite haben, als auch über Ressourcen verfügen, um die Einhaltung politisch vereinbarter Regeln prüfen und ggfs. auch sanktionieren zu können (z.B. (digitaler) Verbraucherschutz des BSI (Bundesamt für Sicherheit in der Informationstechnik), zivilgesellschaftliche Organisationen wie netzpolitik.org oder Cracked Labs). Im Bildungsbereich versucht u.a. die Initiative Bildung und Digitaler Kapitalismus10 das Thema kritisch aufzugreifen.
Handeln
Davon ausgehend kann diese Haltung zu konkretem Handeln führen wie beispielweise:
- sich zu konkreten Zusammenhängen und zu alltagspraktischen Nutzungsformen informieren und Kinder und Jugendliche darüber aufklären,
- „Interessen dahinter“ verstehen und benennen,
- eine interessensgeleitete Position gemeinsam mit und im Sinne junger Menschen entwickeln, alltäglich informiert und orientiert agieren,
- das Überwachungspotenzial von Datenerfassung und -analyse aufzeigen und die Notwendigkeit verdeutlichen, dass diese machtvollen Technologien in rechtliche und demokratische Verfassungen und Praxen eingebunden werden müssen,
- kritisch untersuchen, in welcher Weise Kinder und Jugendliche explizit von Datenanalyse betroffen sind, etwa in Lernsoftware, Diagnosesoftware, bei der Dokumentation von Bildung (Kita, Schule, Förderung), durch Parental Control Apps, Games, Smarthome, digitales Spielzeug),
- junge Menschen unterstützen, nach dem ökologischen und sozialen Impact von digitalen Medien zu fragen und ihr Potenzial für mehr Nachhaltigkeit zu prüfen,
- das komplexe Thema nicht individualisieren und auf die Verantwortung einzelner Nutzer:innen reduzieren,
- das Darstellungs- und Manipulationspotenzial von vernetzten und algorithmisierten Medien untersuchen,
- für die normbildenden Wirkungen des (Self-)Tracking und Scoring, die Veränderungen des Lebensgefühls bei schwindender Privatheit sensibilisieren,
- Jugendliche auf die digitale Arbeitswelt vorbereiten: nicht nur durch Anwenderkompetenzen, sondern auch durch Einsichten in die Ambivalenz von datengestützten Steuerungs- und Managementsystemen.
Mut zur Inkonsistenz! Gerade in Deutschland und gerade als Pädagogen:innen möchten wir möglichst konsequent und rundum „richtig“ handeln. Doch beim Thema Datenanalyse wird es uns nicht gelingen, zugleich souverän, datensparsam, aktuell, die Jugendlichen erreichend, ihre Lebenswelt aufgreifend … zu agieren, ohne dabei weitere Daten preiszugeben. Darum die These: „Aufklären geht immer“! – selbst, wenn wir das paradoxerweise per Insta oder Twitter tun. Wichtig scheint mir, dass wir den Dialog beginnen und aufklärend handeln.