Datensolidarität: Warum wir einen neuen Gesellschaftsvertrag für Daten brauchen
Es gibt Momente, in denen die digitale Welt wirkt, als laufe sie der Politik davon. Große Plattformen und KI-Unternehmen führen neue datengetriebene Geschäftsmodelle ein, während nationale und europäische Gesetzgebung scheinbar nur noch reagieren, nachschärfen oder hinterherregulieren kann. Diese Dynamik vermittelt den Eindruck, als seien digitale Entwicklungen unvermeidlich und Daten so etwas wie eine natürliche Ressource – ähnlich wie Öl. Technologiekonzerne erscheinen dann als jene, die diese Ressource „veredeln“ und deshalb ein besonderes Anrecht auf ihre Nutzung haben.
Für die Politik ist diese Erzählung bequem, weil sie Verantwortung verschiebt: Wenn Digitalisierung als quasi naturwüchsiger Prozess gilt, muss der Status quo nicht mehr politisch begründet werden. Gleichzeitig ist diese Sichtweise demokratisch problematisch, weil sie verschleiert, dass Daten immer das Ergebnis politischer und anderer menschlicher Entscheidungen sind: Entscheidungen darüber, welche Datenanwendungen wir in unserer Gesellschaft erlauben, wer davon profitiert, wo die öffentliche Hand IT-Infrastruktur zur Verfügung stellt – und wo man sich auf die Infrastruktur und Services privater Großkonzerne verlässt. Wo solche Entscheidungen als bloß technische Notwendigkeiten erscheinen, entziehen sie sich öffentlicher Aushandlung.
Vergleichbarkeit von Daten
Diese Schieflage wird dadurch verstärkt, dass die geltenden rechtlichen und politischen Rahmenbedingungen Datenschutz überwiegend als individuelle Angelegenheit behandeln und die Relationalität – also die Beziehungsförmigkeit – von Daten nur unzureichend berücksichtigen. Daten entfalten ihre Wirkung – und ihren wirtschaftlichen und politischen Wert – durch Vergleich, Verknüpfung und statistische Verdichtung. Was wie eine individuelle Datenspur erscheint, ist daher stets Teil eines größeren Musters: Daten zu Konsum, Mobilität oder Gesundheit sagen ebenso viel über Gruppen und Lebenslagen wie über einzelne Personen.
Genau hier liegt ein zentrales Paradox digitaler Gesellschaften: Während Kontrolle über Datennutzung rechtlich und politisch weitgehend individualisiert wird, beruhen viele digitale Geschäftsmodelle auf der systematischen Auswertung kollektiver Muster. Soziale Medien funktionieren nicht, weil sie einzelne Personen beobachten, sondern weil sie Beziehungen, Ähnlichkeiten und Dynamiken zwischen Millionen Nutzerinnen und Nutzern analysieren. Auch personalisierte Werbung und große Sprachmodelle wie ChatGPT beruhen darauf, Menschen oder Texte statistisch einzuordnen und in Beziehung zueinander zu setzen.
Wer kontrolliert unsere Daten?
Spätestens hier wird deutlich, dass die Frage, wer über Daten entscheidet, keine abstrakte rechtliche oder gar technische Debatte sein kann, sondern eine Frage digitaler Souveränität. Es geht darum, demokratische Kontrolle über Dateninfrastrukturen, Zugänge, Regeln und Standards zurückzugewinnen. In Europa wird dieses Thema zunehmend virulent: Immer wieder zeigt sich, dass zentrale digitale Funktionen von außereuropäischen Anbietern abhängen – etwa wenn öffentliche Verwaltungen ihre Daten über proprietäre Cloud-Dienste abwickeln oder Universitäten und Krankenhäuser Software nutzen, deren Bedingungen sie kaum beeinflussen können. Wenn etwa sensible Forschungs- oder Gesundheitsdaten nur unter den Geschäftsbedingungen großer Tech-Konzerne gespeichert und verarbeitet werden können, verschiebt sich Kontrolle faktisch von öffentlichen Institutionen zu privaten Anbietern.
Und es verschiebt sich auch die Möglichkeit, von Daten wirtschaftlich zu profitieren: Derzeit wird europäisches Datenmaterial – wie etwa Medieninhalte, Postings auf sozialen Medien oder digitalisierte Kunst- und Kulturgüter – für das Training US-amerikanischer künstlicher Intelligenz genutzt, was bedeutet, dass auch die Profite in den USA entstehen und die Gesellschaften, aus denen die Daten stammen, leer ausgehen.
Datensolidarität setzt genau an diesem Punkt an. Sie vergrößert den Blick über die individuelle Frage der „Zustimmung“ hinaus zur Frage, wie wir gemeinsam entscheiden können, wie Daten verwendet werden, wer davon profitieren soll, wem die technischen Grundlagen und Infrastrukturen gehören, und wie auch die Kosten gerechter verteilt werden können. Denn wer über die technischen Grundlagen und die Nutzung digitaler Daten entscheidet, organisiert Gesellschaft. Datensolidarität bedeutet, diese Entscheidungen nicht jenen zu überlassen, die über die größten Rechenzentren oder die ausgereiftesten Geschäftsmodelle verfügen, sondern Institutionen zu stärken oder neu zu schaffen, die Daten als gesellschaftliche Infrastruktur begreifen und sie im Interesse vieler verwalten – etwa durch gemeinwohlorientierte Datentreuhänder, transparente Register oder demokratisch kontrollierte Datenplattformen.
Die drei Säulen der Datensolidarität
Solidarität ist hier keine Einladung zum Teilen der eigenen Daten im Namen wirtschaftlichen Fortschritts oder einer abstrakten Idee des Gemeinwohls. Es ist die Aufforderung, gemeinsam Verantwortung dafür zu übernehmen, dass die Herstellung und Nutzung von Daten vielen Menschen dient und nicht nur eine kleine Elite reicher macht. Datensolidarität verlangt Transparenz, wo heute algorithmische Blackboxes Entscheidungen vorbereiten. Sie verlangt Mitsprache, wo komplexe Datenpraktiken auf individuelle Klickstrecken reduziert werden. Und sie verlangt Fairness dort, wo bislang eine einfache Logik regiert: Wer über Daten verfügt, sammelt noch mehr – und wer davon betroffen ist, trägt die Folgen. Datensolidarität stellt dieser Dynamik die Frage entgegen, wie Daten genutzt werden können, um gemeinsame Probleme zu lösen, ohne neue Formen des Ausschlusses zu produzieren.
Ganz praktisch lässt sich Datensolidarität an drei Säulen ausrichten, die im Zentrum meines neuen Buchs stehen:
1. Erleichterung von Datennutzung mit öffentlichem Wert
Datennutzung sollte dort erleichtert werden, wo sie erheblichen öffentlichen Nutzen schafft, ohne unverhältnismäßige Risiken für Einzelne oder Gemeinschaften zu erzeugen. Das kann bedeuten, Zugang zu Daten für die wissenschaftliche Forschung zu erleichtern, oder regulatorische Auflagen so zu gestalten, dass gemeinwohlorientierte Akteure – wie gemeinnützige Initiativen oder kleine Unternehmen mit guten Ideen – nicht durch bürokratische und finanzielle Barrieren ausgeschlossen werden.
2. Schutz und Linderung von Schäden
Nicht alle Risiken lassen sich vollständig vermeiden. Wo Datennutzung Einzelpersonen oder Gruppen schadet, müssen Mechanismen zur Verfügung stehen, die Menschen unterstützen, auch wenn sie keinen Rechtsanspruch haben – weil sie etwa nicht präzise nachweisen können, wer genau für den Schaden verantwortlich ist. Eine praktische Lösung könnte darin bestehen, unabhängige Stellen zu etablieren, an die sich Betroffene wenden können, wenn sie etwa durch diskriminierende Algorithmen benachteiligt werden oder ihre Daten missbräuchlich genutzt wurden – ähnlich wie Ombudsstellen oder Beschwerdeorgane, die niedrigschwellige Hilfe und in Härtefällen finanzielle Unterstützung bieten.
3. Rückfluss von Gewinnen aus kommerzieller Datennutzung an die Öffentlichkeit
Die Profite, die große Unternehmen aus der Nutzung von Daten ziehen, müssen in einem viel größeren Ausmaß in die Gesellschaft zurückfließen. Nicht zu einzelnen Bürgerinnen und Bürgern in Form individueller Vergütung für persönliche Daten durch Bezahlung (warum das eine schlechte Idee ist, begründen wir hier), sondern etwa durch gezielte Besteuerung digitaler Dienste oder durch vertragliche Vereinbarungen, bei denen Teile der Erlöse in gemeinnützige Projekte, Forschung oder digitale Infrastruktur investiert werden. So wird anerkannt, dass Daten nicht im luftleeren Raum entstehen. Sie werden durch gesellschaftliche Beiträge ermöglicht, sei es durch öffentliche Infrastrukturen, durch von Bürgerinnen und Bürgern generierte Daten, oder dadurch, dass Menschen in öffentlich finanzierten Bildungssystemen Wissen, Sprache und Kompetenzen erwerben, die später selbst Teil digitaler Wertschöpfung werden.
Daten als politische Infrastruktur
Diese drei Säulen bilden das normative wie praktische Kernstück eines solidarischen Ansatzes, der zusätzlich zu individueller Kontrolle über persönliche Daten auch de-identifizierte Daten als gemeinsame Ressource begreift, die demokratisch verwaltet wird. Und eine solidarische Datenordnung ist noch mehr: Sie ist Voraussetzung für eine wettbewerbsfähige, resiliente europäische Wirtschaft. Wenn die in Europa erzeugten Daten auch europäischen Unternehmen zur Verfügung stehen, kann daraus neue, eigenständige Wertschöpfung entstehen.
Es ist Zeit, Daten nicht länger als Nebenprodukt des Alltags zu betrachten, sondern als das, was sie längst sind: die politische Infrastruktur der Gegenwart. Wer das versteht, wird nicht nur anders über Digitalisierung sprechen – sondern auch über Demokratie.
—
Die Autorin dankt Werner Illsinger (4future foundation) für hilfreiche Kommentare zu einem Entwurf dieses Textes. Ihr neues Buch Datenschlussverkauf: Solidarität in der digitalen Welt erscheint im März im Verlag Klaus Wagenbach.
Rezente Bücher der Autorin: States of Solidarity: How to Build a Society erschien Anfang Jänner 2026 bei Oxford University Press. The Pandemic Within: Policy Making for a Better World (Bristol University Press, 2021), Personalized Medicine: Empowered Patients in the 21st Century? (New York University Press, 2017). Auf Deutsch erschienen u.a.: Arbeit – Care – Grundeinkommen (Mandelbaum, 2024) sowie Wofür Wir Arbeiten (2023) und Vom Wert des Menschen: Warum wir ein Bedingungsloses Grundeinkommen Brauchen (2021), beide im Brandstätter Verlag.
BARBARA PRAINSACK ist Professorin am Institut für Politikwissenschaft der Universität Wien und Vorsitzende der Europäischen Gruppe für Ethik der Naturwissenschaften und der neuen Technologien, die die Europäische Kommission berät. Ihre Forschung beschäftigt sich mit der Regulierung digitaler Technologien, sowie mit der Rolle der Solidarität in Medizin und Gesundheitswesen.