Warum Millionen Menschen ihre KI-App gelöscht haben

Ich schreibe hier normalerweise nicht über Weltpolitik. Aber was da passiert ist, lehrt uns etwas Grundlegendes über Haltung, Vertrauen und die Wahl der richtigen Partner für dein Business.

Ich möchte gerne etwas klarstellen, bevor du weiterliest.

Auf diesem Blog schreibe ich über KI-Strategien, Tools, über Use Cases und darüber, wie du generative KI sinnvoll in deinen Geschäftsalltag integrierst.

Weltpolitik ist hier nicht mein Thema. Normalerweise.

Aber was Ende Februar 2026 passiert ist, hat mich so beschäftigt, dass ich einfach nicht schweigen will. Ich erhebe auch keinen Anspruch darauf, ein vollständiges Bild zu zeigen - das hier ist mein persönlicher Blick auf die Dinge.


Zuerst einmal kurz erklärt: Wer sind diese Unternehmen überhaupt?


Es gibt zwei Namen, die du mit hoher Wahrscheinlichkeit kennst, wenn du dich mit KI schon etwas länger befasst. 

ChatGPT von OpenAI ist das, was die meisten Menschen meinen, wenn sie "KI" sagen. Ende 2022 gestartet, heute über 900 Millionen wöchentliche Nutzer weltweit. Der absolute Platzhirsch (verliert aber sukzessive an Marktanteilen). 

Claude von Anthropic ist in der breiten Öffentlichkeit weniger bekannt. Aber unter Profis, Entwicklern und Menschen, die täglich intensiv mit KI arbeiten, seit Monaten der klare Favorit. Ich selbst mag Claude auch sehr.

Beide machen im Kern dasselbe. Du schreibst etwas, die KI antwortet.

Aber dahinter stecken zwei sehr unterschiedliche Unternehmen mit sehr unterschiedlichen Wertvorstellungen.

Das hat sich Ende Februar auf eine Weise gezeigt, die ich so nicht erwartet hätte.


Was ist passiert?


Das US-Verteidigungsministerium, unter der Trump-Administration offiziell in "Department of War" umbenannt, stellte eine klare Forderung an Anthropic (das Unternehmen hinter Claude).

Die Forderung: Entfernt eure Sicherheitsregeln. Wir wollen Claude ohne Einschränkungen nutzen. Auch für die Massenüberwachung von Bürgerinnen und Bürgern. Auch für vollautonome Waffensysteme, also Waffen, die ohne menschliche Entscheidung töten können.

Anthropic-CEO Dario Amodei sagte: Nein.

Seine Begründung war sachlich. KI-Systeme seien noch nicht zuverlässig genug für Entscheidungen, die Leben kosten. Und Massenüberwachung widerspreche den Grundwerten des Unternehmens.

Die Reaktion der Regierung kam prompt. Anthropic wurde als "Sicherheitsrisiko für die Lieferkette" eingestuft. Alle US-Behörden wurden angewiesen, Claude nicht mehr zu verwenden.

Stunden später verkündete OpenAI: Wir übernehmen den Deal. Für bis zu 200 Millionen Dollar.


Und dann passierte etwas, mit dem niemand gerechnet hatte


Die Nutzer reagierten. Schnell. Laut. Und in einer Größenordnung, die selbst erfahrene Marktbeobachter überraschte.

Auf Reddit und auf X, dem früheren Twitter, verbreitete sich der Hashtag #CancelChatGPT. Menschen posteten Screenshots ihrer gekündigten Abonnements. Pop-Sängerin Katy Perry veröffentlichte öffentlich ihr neues Claude-Abo und trug die Geschichte weit über die Tech-Blase hinaus.

Vor Anthropics Büro in San Francisco schrieben Menschen Nachrichten auf den Bürgersteig: "Thank you."

Vor OpenAIs Büro stand: "Please stand up for civil liberties."

Die Zahlen sprechen für sich.

Die Deinstallationen der ChatGPT-App stiegen an einem einzigen Tag um 295 Prozent. (Quelle: futurezone.at)

Die 1-Stern-Bewertungen für ChatGPT sprangen um 775 Prozent nach oben. (Quelle: techcrunch.com)

Claude kletterte innerhalb eines Wochenendes von Platz 42 auf Platz 1 im US-App-Store. (Quelle: CNBC)

Die Zahl der aktiven Claude-Nutzer stieg seit Januar 2026 um über 60 Prozent, die täglichen Neuanmeldungen haben sich vervierfacht. (Quelle: Fortune)

Zum ersten Mal in der Geschichte der KI überholte Claude ChatGPT bei den Downloads. Nicht in einer Nische. In den USA, in Deutschland, in Kanada, in der Schweiz und in weiteren westlichen Ländern. (Quelle: t3n.de) 


Was das mit dir zu tun hat


Du fragst dich vielleicht gerade: Interessant. Aber was geht mich ein Streit zwischen einem amerikanischen Ministerium und einem Tech-Konzern an? Ich führe eine Beratung. Ich leite ein kleines Team. Kein Pentagon, weit und breit.

Meine Meinung: Es geht uns alle an!

Denn was wir hier gesehen haben, ist kein technisches Ereignis. Es ist ein menschliches. Und es zeigt etwas, das in jedem Business täglich eine Rolle spielt.

Millionen von Menschen haben innerhalb von 48 Stunden entschieden: Wir zahlen nicht für ein Unternehmen, das unsere Werte nicht teilt.

Nicht wegen eines besseren Features. Nicht wegen eines günstigeren Preises.

Wegen Haltung.


Der Wertekompass schlägt zurück


Wir befinden uns gerade in einer Phase, in der KI-Neuigkeiten sich so schnell überschlagen, dass selbst ich manchmal kaum Schritt halten kann. Neue Modelle, neue Tools, neue Versprechen, - und das fast wöchentlich.  

Und trotz dieser Geschwindigkeit, oder vielleicht gerade deswegen, merken wir etwas Wichtiges.

Menschen schauen genauer hin als wir dachten.

Sie fragen nicht mehr nur: Ist dieses Tool gut? Sie fragen: Von wem kommt es? Was steckt dahinter? Welche Werte vertritt dieses Unternehmen, wenn es wirklich darauf ankommt?

Das ist keine neue Frage. Das ist die älteste Frage im Business. Es geht um Werte. Es geht um Prinzipien. Es geht um Haltung. Nenne es gerne, wie du willst. 

Und sie stellt sich heute nicht nur bei der Wahl eines KI-Tools. Sie stellt sich bei jedem Lieferanten, bei jedem Partner, bei jedem Dienstleister, den du beauftragst.


Vertrauen entsteht nicht im Sonnenschein


Dario Amodei, CEO von Anthropic, sagte in einem Interview mit CBS News:

"Drohungen ändern unsere Position nicht. Wir können das in gutem Gewissen nicht akzeptieren."


Das klingt nicht nach einem Unternehmer, der einen Vertrag maximiert. Es klingt nach jemandem, der weiß, wofür er steht.

Und genau das haben Millionen Menschen gespürt.

Vertrauen entsteht nicht, wenn alles glatt läuft. Es entsteht in dem Moment, in dem jemand Nein sagt, obwohl die Konsequenzen teuer sind!

Gibt es in deiner eigenen Geschichte solche Momente? Einen Auftrag, den du abgelehnt hast, weil er nicht zu deinen Werten gepasst hat? Eine Entscheidung, die kurzfristig geschmerzt hat, aber langfristig dein Vertrauen bei Kunden gestärkt hat?

Genau das ist hier passiert. Auf globaler Bühne.


Was das für dich als Unternehmer bedeutet


Ich begleite viele Selbständige, kleine Unternehmen und Teams dabei, KI sinnvoll in ihren Alltag zu integrieren. Und eine Frage begegnet mir dabei immer öfter, auch wenn sie selten so direkt gestellt wird.

Kann ich dem vertrauen, was da im Hintergrund läuft?
Kann ich darauf vertrauen, dass meine Daten nicht in falsche Hände geraten? 

Das sind völlig berechtigte Fragen. Und diese Geschichte liefert eine Antwort, die ich besser nicht hätte formulieren können.

Schau dir an, wie ein Unternehmen handelt, wenn es unter Druck steht. Nicht was es auf der Website schreibt. Was es tut, wenn es wirklich darauf ankommt.

Das gilt übrigens für alle Partner, die du wählst. Für Lieferanten, für Dienstleister, für Plattformen. Und ja, auch für KI-Anbieter.


Mein Fazit


Die KI-Welt dreht sich schnell. Manchmal zu schnell.

Aber was uns dieser Februar gezeigt hat: Menschen laufen nicht blind hinterher. Sie beobachten. Sie wägen ab. Und wenn der Moment kommt, handeln sie.

Das gibt mir ehrlich gesagt Hoffnung. Denn es zeigt, dass wir nicht Opfer der Technologie sind. Wir gestalten sie, durch unsere Entscheidungen, unser Vertrauen und manchmal durch unser Nein.

Wenn ich mit Unternehmen arbeite, sage ich oft: Die Technologie ist nur so gut wie der Kontext, in dem sie eingesetzt wird. Und der Kontext, das sind wir. Unsere Werte. Unsere Verantwortung. Unsere Entscheidungen.

Und ganz ehrlich: Oft jammern Unternehmen im DACH-Raum, sie dürfen ja nicht, wegen EU-AI Act, DSGVO & Co. Ganz ehrlich? Ich finde es gut, dass es solche Rahmenbedingungen gibt. Denn es gibt innerhalb dieses Rahmen tolle Möglichkeiten, die KI zu nutzen. 


Abschließend - ich finde: Es war eines der wichtigsten Signale der KI-Geschichte seit dem Start von ChatGPT.


Weißt du eigentlich, wofür die Unternehmen stehen, deren Tools du täglich nutzt? Und passen ihre Werte zu deinen?

Schreib gerne in die Kommentare. Ich freue mich auf den Austausch.

Weitere Blogartikel

go-ai-smart.com