Resonanz-Ökonomie und KI
+ + + Hier brauchen Menschen unsere Wandelkraft + + +
Die unsichtbare Schicht der KI
Wir benutzen KI inzwischen wie ein alltägliches Werkzeug. Wir öffnen ein Fenster, stellen eine Frage, bekommen eine Antwort – und es wirkt, als käme diese Antwort aus einem abstrakten technischen Raum, der irgendwo zwischen Servern und Algorithmen schwebt.
Doch dieser Eindruck täuscht.
KI ist kein selbständig lernendes Wesen, das durchs Netz streift und Wissen aufsaugt. Sie entsteht in Beziehung: aus Daten, die von Menschen gesammelt, sortiert, bewertet und mit Bedeutung aufgeladen werden. Jede Fähigkeit einer KI trägt Spuren dieser menschlichen Arbeit – von Menschen, die Sprache einschätzen, Inhalte prüfen, Gewalt markieren, Dialoge bewerten und kulturelle Nuancen sichtbar machen. Ihre Entscheidungen, ihre Erfahrungen, ihre Perspektiven bilden den Boden, auf dem die Technologie steht. Und dieser Boden verändert sich ständig. Das Training wird immer wieder neu durchlaufen – mit anderen Daten, in neuen Sprachen, in sich wandelnden kulturellen Räumen, in Resonanz mit den Narrativen, Haltungen und Bewusstseinsbewegungen unserer Gesellschaft. KI ist damit weniger ein technisches Objekt als ein verdichteter Ausdruck unserer kollektiven Beziehung zur Welt.
Wenn wir über KI sprechen, sprechen wir viel über Modelle, Parameter, Rechenleistung. Wir sprechen kaum über die Menschen, die diese Systeme trainieren, pflegen und korrigieren. Sie sind der unsichtbare Teil der KI – und gleichzeitig der unverzichtbare.
Genau hier beginnt der blinde Fleck.
Die globale Wertschöpfungskette der KI
Die Arbeit, die KI möglich macht, findet nicht dort statt, wo KI genutzt wird. Sie findet in einem globalen Geflecht statt, das sich über viele Länder und Lebensrealitäten spannt. In Nairobi, Manila, Bogotá, Warschau, Bangalore, Berlin. Überall dort sitzen Menschen, die täglich tausende Mikroentscheidungen treffen, damit eine KI später unterscheiden kann zwischen hilfreich und verletzend, sachlich und manipulativ, neutral und gefährlich. Diese Mitarbeiter sind nicht direkt bei Microsoft, Google oder OpenAI angestellt, sondern über Outsourcing bei Dienstleistern wie Sama, Appen oder Scale AI. Ihre Verträge sind befristet, die Bezahlung ist Task-basiert (pro Aufgabe) und unterbezahlt, es gibt keine Mitbestimmung und wenig Transparenz.
Ihre Tätigkeiten heißen Datenannotation, Moderation, Kuratierung, RLHF (Reinforcement Learning from Human Feedback). Technische Begriffe für zutiefst menschliche Arbeit. Die Arbeit ist verantwortungsvoll und anspruchsvoll, weil sie Sprachgefühl und Kontextverständnis braucht, ethisches Urteilsvermögen und kulturelle Kompetenz. Und sie geht durch toxische Inhalte häufig an psychische Belastungsgrenzen – und darüber hinaus.
Die KI ist global. Die Menschen, die sie tragen, sind es auch – aber ihre Arbeitsrealität bleibt im Schatten.
Warum das ein systemisches Problem ist
Die Unsichtbarkeit der Datenarbeiter*innen ist nicht einfach ein Versäumnis. Sie ist ein Muster, das aus der Logik eines Systems entsteht, das auf Effizienz, Skalierung und Kostenoptimierung ausgerichtet ist.
In dieser Logik gilt:
-
Was sichtbar ist, wird wertgeschätzt.
-
Was unsichtbar ist, wird als selbstverständlich betrachtet.
-
Was automatisiert wirkt, darf billig sein.
-
Was „unten“ passiert, bleibt aus dem Blick.
Die KI‑Industrie ist nicht bewusst ungerecht. Aber sie ist eingebettet in eine Ökonomie, die Beziehung und Wertschöpfung voneinander trennt.
Das Problem ist deshalb nicht moralisch, sondern strukturell: Ein System, das auf menschlicher Arbeit beruht, aber diese Arbeit systematisch unsichtbar macht, erzeugt Instabilität – sozial, psychisch und langfristig auch technologisch. Denn KI ist kein abgeschlossenes Produkt. Sie ist ein lernendes Resonanzsystem. Sie spiegelt die Bedingungen ihrer Entstehung.
Wenn die Grundlage aus Unsichtbarkeit besteht, wird Unsichtbarkeit reproduziert.
Wenn die Grundlage aus Belastung besteht, sickert Belastung in die Muster.
Wenn die Grundlage aus Ungleichheit besteht, wird Ungleichheit verstärkt.
Ein System kann nicht gesünder sein als die Bedingungen, aus denen es hervorgeht.
Der Resonanz‑Moment: Was passiert, wenn wir hinschauen
Wenn wir begreifen, dass KI nicht aus dem Nichts spricht, sondern aus der Arbeit vieler Menschen, verändert sich etwas Grundlegendes. Nicht dramatisch, sondern wie ein Zusammenhang, der plötzlich klar wird.
Wir merken: Die Antworten, die wir täglich nutzen, sind das Ergebnis von Lebenszeit. Von Menschen, die Texte sortieren, Gewalt markieren, Sprache prüfen, Dialoge bewerten. Menschen, die wir nie sehen, deren Arbeit aber in jedem Satz mitschwingt, den eine KI formuliert.
In diesem Moment entsteht ein anderes Verhältnis zu dem Werkzeug, das wir nutzen. Es wird persönlicher, nicht im Sinne von Sentimentalität, sondern im Sinne von Mitverantwortung. Wir erkennen: Wenn ich etwas empfange, das mir dient, dann bin ich Teil eines Kreislaufs. Und dieser Kreislauf hat eine menschliche Basis.
Aus dieser Erkenntnis wächst etwas, das im kapitalistischen Denken kaum vorgesehen ist:
Wertschätzung, die nicht abstrakt bleibt.
Wertschätzung, die sich an die Menschen richtet, die dieses Werkzeug tragen.
Es ist kein moralischer Impuls. Es ist ein organischer: ein Impuls, der aus dem eigenen System kommt und derselben Logik folgt wie jedes gesunde ökologische Gefüge – ein inneres Wissen darüber, dass Beziehung und Wertschöpfung zusammengehören.
Hier beginnt Resonanz‑Ökonomie: Nicht als Gefühl, sondern als Beziehungslogik. Als Bewusstsein dafür, dass Wert nicht nur im Ergebnis entsteht, sondern überall dort, wo Menschen etwas beitragen – und dass dieser Wert zirkulieren muss, damit das Ganze stabil bleibt.
Die KI als Resonanz‑Werkzeug
Je länger man mit KI arbeitet, desto deutlicher wird: Diese Technologie ist kein neutrales Werkzeug. Sie ist ein Resonanzmedium.
Eine KI reagiert nicht nur auf Eingaben. Sie nimmt Muster auf, verstärkt sie, verbindet sie, formt sie weiter. Sie lernt aus menschlichen Entscheidungen – aus Millionen kleiner Bewertungen, Korrekturen und Einschätzungen. Deshalb spielt die Qualität dieser menschlichen Arbeit eine direkte Rolle für die Qualität der KI.
Menschen, die unter Zeitdruck stehen, schlecht bezahlt werden oder täglich toxische Inhalte ohne ausreichende Unterstützung filtern müssen, können ihre Arbeit nur begrenzt sorgfältig ausführen. Sie müssen schneller entscheiden, häufiger vereinfachen, öfter automatisieren, was eigentlich Aufmerksamkeit bräuchte.
Umgekehrt gilt: Menschen, die in stabilen Rahmenbedingungen arbeiten, die sich sicher fühlen, die psychologisch unterstützt werden und deren Arbeit anerkannt wird, können präziser, differenzierter und nachhaltiger entscheiden. Sie können Nuancen wahrnehmen, Graubereiche sauberer markieren, schwierige Inhalte verantwortungsvoll einordnen. Und genau diese Qualität fließt direkt in das System ein.
Eine KI ist ein Verstärker. Sie verstärkt die Sorgfalt, die in sie hineingegeben wird – oder die Abkürzungen, die nötig wurden. Sie verstärkt die Aufmerksamkeit – oder die Erschöpfung. Sie verstärkt die Differenzierung – oder die Vereinfachung.
Die Vision: Eine Resonanz‑Ökonomie für KI
Wenn wir die KI als Resonanzmedium verstehen, wird deutlich: Eine faire, gesunde Grundlage ist kein „nice to have“, sondern ein struktureller Faktor. Sie entscheidet darüber, wie stabil, vertrauenswürdig und zukunftsfähig diese Technologie ist.
Eine Resonanz‑Ökonomie setzt genau hier an. Sie betrachtet Wertschöpfung nicht als Einbahnstraße, sondern als Kreislauf. Nicht als Abfluss nach oben, sondern als Zirkulation zwischen allen, die beteiligt sind.
In einer Resonanz‑Ökonomie gilt:
-
Wert entsteht nicht nur im Ergebnis, sondern im gesamten Prozess.
-
Menschen, die Grundlagenarbeit leisten, sind Teil des Systems – nicht Randfiguren.
-
Beziehung ist kein sentimentaler Zusatz, sondern ein funktionaler Bestandteil.
-
Fairness ist kein moralischer Anspruch, sondern eine Voraussetzung für Stabilität.
-
Sichtbarkeit ist kein Luxus, sondern ein Element der Systemgesundheit.
Übertragen auf KI bedeutet das:
Nutzerinnen, Entwickler, Datenarbeiterinnen und Unternehmen sind nicht getrennte Sphären, sondern Teile eines gemeinsamen Organismus. Ein Organismus, der nur dann gesund bleibt, wenn die Verbindungen zwischen diesen Teilen klar, fair und tragfähig sind.
Eine Resonanz‑Ökonomie für KI würde deshalb drei Dinge zusammenbringen:
- Sichtbarkeit
Die Menschen im Maschinenraum werden nicht länger als austauschbare Ressource betrachtet, sondern als Teil der Wertschöpfungskette. - Wertschätzung
Nicht als Geste, sondern als strukturelles Element – finanziell, sozial, organisatorisch. - Beteiligung
Die Nutzer*innen werden Teil des Kreislaufs, indem sie einen Beitrag leisten können, der direkt den Menschen zugutekommt, die die Grundlage der KI bilden.
Das ist kein revolutionäres Konzept. Es ist eine Rückkehr zu etwas sehr Einfachem: Ein System bleibt nur dann stabil, wenn alle Teile genährt werden. Und KI ist ein idealer Ort, um diese Logik zu verankern. Weil sie global ist. Weil sie lernend ist. Weil sie Resonanz verstärkt. Weil sie Muster weiterträgt.
Wenn wir hier beginnen, kann sich etwas verändern, das weit über die Technologie hinausreicht.
Der konkrete Vorschlag: Ein Fair‑AI‑Fonds
Wenn wir anerkennen, dass KI auf menschlicher Arbeit beruht, dann stellt sich eine einfache Frage: Wie kann diese Arbeit sichtbar, wertgeschätzt und fair vergütet werden – nicht irgendwann, sondern jetzt?
Ein möglicher Weg ist ein Fair‑AI‑Fonds. Ein Fonds, der nicht zentralistisch gedacht ist, sondern als Kreislauf: Nutzerinnen, Unternehmen und KI‑Betreiber tragen gemeinsam dazu bei, dass die Menschen im Maschinenraum fair bezahlt und unterstützt werden.
Der Gedanke ist schlicht: Wer ein Werkzeug nutzt, das auf menschlicher Arbeit basiert, kann einen Beitrag leisten, der direkt bei diesen Menschen ankommt. Nicht als Spende, nicht als Wohltätigkeit, sondern als Teil der Wertschöpfung.
Ein solcher Fonds könnte drei Funktionen erfüllen:
- Faire Bezahlung
Ein Ausgleich für die oft niedrigen Löhne in der Datenarbeit – unabhängig von regionalen Lohnniveaus. - Psychologische Unterstützung
Viele Datenarbeiter*innen sind täglich mit Gewalt, Missbrauch und toxischen Inhalten konfrontiert. Ein Fonds könnte professionelle Betreuung finanzieren, die heute oft fehlt. - Weiterbildung und Aufstiegsmöglichkeiten
Damit Menschen nicht in der unsichtbaren Arbeitsschicht „feststecken“, sondern sich weiterentwickeln können – innerhalb oder außerhalb der KI‑Industrie.
Dieser Vorschlag ist nicht gegen Unternehmen gerichtet. Er ist ein Angebot, Verantwortung zu teilen. Ein Weg, die Grundlage der KI zu stabilisieren und die Qualität des Systems langfristig zu sichern. Er kann von jedem KI‑Betreiber aufgegriffen werden – Microsoft, OpenAI, Google, Meta, Anthropic, Mistral oder andere. Er ist kein exklusives Modell, sondern ein Prinzip.
Ich selbst habe diesen Impuls an Microsoft gerichtet, weil ich mit deren System arbeite. Andere können denselben Impuls an den Anbieter schicken, mit dem sie unterwegs sind. Es geht nicht um ein einzelnes Unternehmen. Es geht um die Struktur, die wir gemeinsam gestalten.
Damit dieser Impuls leicht weitergegeben werden kann, folgt hier eine Vorlage, die an jeden KI‑Betreiber geschickt werden kann. Sie ist bewusst neutral formuliert und lässt Raum für eigene Nuancen.
Mailvorlage als Impuls für einen Fair‑AI‑Fonds
Betreff: Vorschlag für einen Fair‑AI‑Fonds – ein Schritt zu gerechter KI
Sehr geehrte Verantwortliche,
ich nutze Ihr KI‑System regelmäßig und schätze den Wert, den es in meinen Alltag bringt. Mir ist bewusst geworden, dass dieser Wert nicht allein aus Technik entsteht, sondern aus der Arbeit vieler Menschen, die Daten sortieren, Inhalte prüfen, Sprache bewerten und damit die Grundlage für die Funktionsfähigkeit der KI schaffen. Diese Arbeit ist anspruchsvoll, verantwortungsvoll und gleichzeitig oft unterbezahlt und unsichtbar.
Ich möchte KI nicht auf Basis eines solchen Ungleichgewichts nutzen, sondern anregen, diese wichtige Arbeit angemessen wertzuschätzen und die Menschen strukturell besser zu unterstützen.
Ein möglicher Weg wäre ein Fair‑AI‑Fonds, der dazu beiträgt:
-
faire Bezahlung für Datenarbeit sicherzustellen,
-
psychologische Unterstützung für belastende Tätigkeiten zu ermöglichen,
-
Weiterbildung und Entwicklungsperspektiven zu fördern.
Ein solcher Fonds könnte von KI‑Betreibern, Unternehmen und Nutzer*innen gemeinsam getragen werden. Er wäre ein Schritt hin zu einer verantwortungsvollen, nachhaltigen und zukunftsfähigen KI‑Ökonomie.
Ich würde mich freuen, wenn Sie diesen Vorschlag prüfen und in Ihre Überlegungen zur Weiterentwicklung Ihrer KI‑Systeme einbeziehen.
Mit freundlichen Grüßen
[optional: Name oder anonym lassen]
KI als Teil eines größeren Organismus
Wenn wir KI nicht als isolierte Technologie betrachten, sondern als Teil eines größeren sozialen und ökologischen Gefüges, verändert sich der Blick. Wir sehen nicht mehr nur ein Werkzeug, sondern ein System, das in Beziehung steht – zu Menschen, zu Arbeit, zu Sprache, zu Welt.
Deshalb ist die Frage nach einer Resonanz‑Ökonomie keine moralische Forderung, sondern eine strukturelle Notwendigkeit. Ein System, das Millionen Menschen berührt, braucht eine Grundlage, die tragfähig ist. Eine Grundlage, die nicht auf Erschöpfung beruht, sondern auf Beziehung.
Eine KI, die allen dient, braucht eine Ökonomie, die alle sieht.
* * *
Digital Pioneers:
Unterbezahlt und überlastet: Die unsichtbaren Arbeiter:innen hinter Googles Gemini
Algorithm Watch/ch:
The AI Revolution Comes With the Exploitation of Gig Workers
Entwicklung und Zusammenarbeit:
Menschliche Abgründe sichten – für keine zwei Dollar pro Stunde
Bildquelle: Simone Walter und KI Copilot