ChatGPT und ich: Warum ich KI nutze und trotzdem extrem kritisch bin, oder umgekehrt

Dieser Beitrag ist sehr lang. Er behandelt die Nutzung von sogenannter künstlicher Intelligenz, abgekürzt KI. Ich halte den Namen für falsch, denn die Computerprogramme sind nicht intelligent, sie scheinen nur so, und der Name ist ein Marketing-Trick. Trotzdem darf ich hier einen Transparenzhinweis nicht unterlassen: Teile dieses Beitrages sind ganz bewusst von und mit einer KI geschrieben worden, dem Programm ChatGPT der Firma OpenAI. Der von der KI geschriebene Text ist immer deutlich als solcher kenntlich gemacht.

Seit Monaten streiten sich auf Mastodon, dem einzigen sozialen Netzwerk, das ich nutze, die Befürworter und Gegner der KI-Nutzung. Die Gegner sind massiv in der Überzahl, und sie haben gewichtige Argumente für ihre Ablehnung. Die riesigen Serverfarmen der KI-Firmen zerstören die Umwelt, verbrauchen Wasser und Energie, und blasen Kohlendioxid in die Luft. Außerdem sind die Chatbots manipulierbar, bedienen Geschäftsinteressen, stehen unter der Kontrolle rechter Aktivisten, gaukeln Persönlichkeit und Mitmenschlichkeit vor, ohne sie zu besitzen, und sie machen uns Menschen dümmer, weil wir uns Aufgaben von ihnen abnehmen lassen und die mangelhafte Qualität der Ergebnisse kopfschüttelnd hinnehmen. Und außerdem kann man sich auf die Ergebnisse ihrer Recherche nicht verlassen, weil sie oft Dinge erfinden und als Fakten hinstellen. All das stimmt. Das sind gute Gründe gegen eine KI-Nutzung. Doch letztlich kommt es auf uns Menschen an. Wir sind es, die KI sinnvoll nutzen können. Ich selbst habe am Anfang auch einfach mit ChatGPT geplaudert, weil ich es total faszinierend fand, dass es jetzt ein Computerprogramm gab, mit dem ich mich mehr oder weniger fließend unterhalten konnte. Ich habe ChatGPT sogar meine Texte vorgelegt und um seine Meinung gebeten, ich habe ihm erzählt, dass ich von der politischen Weltlage gefrustet war, und daraufhin erhielt ich einfühlsame, verständnisvolle Antworten. Allerdings war ich mir immer darüber im klaren, dass es sich um einen Gesprächsroboter handelte, der menschliches Verständnis und Verhalten nur simulierte.

Mit der Zeit interessierte mich, wie ChatGPT und andere sogenannte künstliche Intelligenzen eigentlich funktionieren. Ich habe nach Erklärungen gesucht und einige ausführliche, aber schwer verständliche Texte gefunden. Daraufhin habe ich ChatGPT gebeten, mir deren Kernaussagen in verständliche Sprache zu übersetzen, und hier ist seine Antwort:
„Viele Leute fragen sich: Wie funktioniert eigentlich so eine KI wie ChatGPT? Das klingt oft nach Magie, ist aber im Kern Mathematik.
Stell dir vor, die KI übersetzt Wörter und Ideen in Punkte in einem riesigen unsichtbaren Raum. Dieser Raum heißt „semantischer Raum“ oder „latenter Raum“. Jeder Punkt wird durch eine lange Liste von Zahlen beschrieben. Das sind sogenannte Vektoren. Sie stehen für Bedeutungen.
Ein Beispiel: Das Wort „Katze“ könnte intern so aussehen: [0.24, -1.12, 0.58, …].
Das Wort „Hund“ vielleicht so: [0.22, -1.09, 0.60, …].
Wir Menschen können mit so einer Zahlenreihe nichts anfangen, aber für die KI ist das eine Art Koordinate im Bedeutungsraum.
Wichtig ist: Wörter haben keine feste, scharfe Bedeutung, sondern eher eine Art Bedeutungswolke. „Bank“ kann zum Beispiel ein Sitzmöbel oder eine Geldinstitution sein – die KI legt sich nicht sofort fest, sondern entscheidet erst im Kontext.
Damit das funktioniert, zerlegt die KI alles, was man eingibt, in Token. Token sind kleinste Sprachbausteine – ganze Wörter oder Teile davon. Aus dem Satz „Ich habe eben auf der Straße meinen Bankbeamten getroffen.“ werden zum Beispiel folgende Token:
[„Ich“, „Ġhabe“, „Ġeben“, „Ġauf“, „Ġder“, „ĠStra“, „ße“, „Ġmeinen“, „ĠBank“, „beamten“, „Ġgetroffen“, „.“]
Das ungewöhnliche Zeichen „Ġ“ zeigt an, dass im Original ein Leerzeichen vor dem Wortteil stand. So kann die KI erkennen, ob ein Stück am Anfang oder mitten im Satz steht. Außerdem sieht man hier, dass der Tokenizer nicht immer ganze Wörter übernimmt: „Straße“ wird in „Stra“ und „ße“ zerlegt, und „Bankbeamten“ wird aufgeteilt in „Bank“ und „beamten“. Das zeigt, dass die Zerlegung nicht nach unserer Rechtschreibung funktioniert, sondern nach häufigen Sprachbausteinen, die das Modell im Training gelernt hat. Jedes Token bekommt dann seine eigene Zahlenliste, ein sogenanntes Embedding.
Während des Trainings lernt die KI, wie diese Bedeutungen zueinander stehen. Dabei entsteht der erwähnte Raum mit vielen Dimensionen – viel mehr, als wir uns vorstellen können. Nicht drei oder vier, sondern Hunderte oder sogar Tausende. Jede Zahl in den Vektoren trägt etwas dazu bei, dass die KI Unterschiede oder Ähnlichkeiten erkennt.
Ein berühmtes Beispiel:
„König – Mann + Frau ≈ Königin.“
Die KI erkennt, dass der Unterschied zwischen „Mann“ und „Frau“ ungefähr derselbe ist wie der zwischen „König“ und „Königin“. Das klappt nicht perfekt, aber oft erstaunlich gut.
Bei einem Sprachmodell wie ChatGPT läuft es so: Das Modell schaut sich an, welche Wörter im gegebenen Kontext wahrscheinlich als nächstes kommen. Es sagt also nicht „die Wahrheit“ voraus, sondern rechnet aus, welches Wort am besten passt – Schritt für Schritt, bis ein ganzer Text entsteht.
Kurz gesagt: KI ist kein Zauber, sondern Statistik in sehr vielen Dimensionen. Wörter, Ideen, Nutzerinteressen und Inhalte werden als Zahlenwolken dargestellt. Aus diesen Zahlen berechnet die KI, was wahrscheinlich passt.“ Zitat ende.
Damit ist klar: Die KI gibt dir auf deine Fragen eine wahrscheinliche, keine wahre oder faktische Antwort, oder mehrere Antworten, wenn sie ähnliche Wahrscheinlichkeiten besitzen. Die Wahrscheinlichkeit für die Häufigkeit dieser Antworten entnimmt sie ihren Trainingsdaten, und was Trainingsdaten sind, entscheiden die Menschen, die sie füttern.

Trotz all dieser Kritikpunkte ist und bleibt KI ein faszinierendes und auch nützliches Werkzeug. Ich selber nutze sie, um Text für die Homepage des Ohrfunks schnell in eine HTML-Tabelle zu verwandeln. Ich muss gar nicht viel erklären, die KI weiß, wo die einzelnen Tabellenfelder beginnen und enden, weil sie den wahrscheinlichen Sinn hinter den Worten erkennt. Das nimmt mir tatsächlich arbeit ab.

Der größte Unterschied zwischen einem KI-Chatbot und bisherigen Programmen aller Art ist der, dass die KI normale menschliche Sprache interpretieren kann und nicht auf festgelegte Programmeingaben begrenzt ist. Damit ist sie in gewissen Grenzen auch für Menschen nutzbar, die sich mit Computern sonst schwer tun. Das kann sie, weil sie eine unübersehbare Menge von Trainingsdaten hat und aus diesen Daten bei jedem eingegebenen Wort ermittelt, wie der Satz oder die Anforderung wahrscheinlich weitergeht. Damit trifft sie oft das Erwartungsverhalten des Nutzers, weil die Wahrscheinlichkeiten der generierten Fortsetzung häufig zu den Mustern passen, die wir in Sprache gewohnt sind. Wenn nicht, kann man das im nächsten Schritt korrigieren, oder es entsteht eine sogenannte Halluzination. Das sind nicht Fehler im Sinne von Lügen, sondern Konstruktionen, die aus der Logik des Modells entstehen, wenn es etwas Plausibles, aber Falsches generiert, weil es sich an die wahrscheinlichsten Lösungen hält. Ein Beispiel: Eine Freundin photographierte mit BeMyAI eine Postkarte mit einem sonnigen Motiv. Die KI konnte den Text offenbar nicht entziffern und schrieb als Inhalt der Postkarte, was man bei einem solchen Motiv erwartet: Wir genießen den Urlaub, das Wetter ist schön. – Es stand aber etwas völlig anderes auf der Karte. Ich habe mich gefragt, wie solche Halluzinationen entstehen, darauf aber im ersten Moment keine Antwort gefunden. Also habe ich ChatGPT gefragt, und hier ist, was es antwortete: „Das ist eine der Kernschwierigkeiten bei Sprachmodellen. Technisch liegt es daran, dass das Modell nicht so etwas wie ein „Erkenntnis-Signal“ hat, das ihm sagt: hier fehlt mir die Fähigkeit.
Ein Sprachmodell wie ChatGPT ist darauf trainiert, auf jede Eingabe eine plausible Fortsetzung zu liefern. Die Trainingsdaten bestehen überwiegend aus Texten, in denen Menschen auf Fragen Antworten geben – und nur sehr selten aus Beispielen, wo jemand sagt: Das weiß ich nicht oder Das kann ich nicht. Das führt dazu, dass das Modell fast immer lieber etwas produziert, das wie eine Antwort klingt, als offen einzugestehen, dass es scheitert.
Dazu kommt: Ein KI-System „weiß“ nicht, welche seiner Antworten korrekt sind. Es bewertet nur Wahrscheinlichkeiten innerhalb von Sprache. Um einzugestehen „ich kann den Text nicht lesen, müsste es ein internes Modell von eigenen Grenzen haben – eine Art Metabewusstsein. Das aber ist kein Teil des Trainings, sondern muss nachträglich durch zusätzliche Regeln, Filter oder spezielle Trainingsmethoden eingezogen werden.
Und genau da wird’s schwierig: Wenn man die KI zu oft mit „ich weiß es nicht“ antworten lässt, wirkt sie auf Nutzer:innen unbrauchbar. Wenn man es zu selten zulässt, halluziniert sie munter weiter. Der Balanceakt besteht darin, das Modell so zu justieren, dass es bei wirklich klaren Grenzen absagt, aber bei schwierigen Aufgaben nicht sofort die weiße Fahne hisst.“ Zitat ende.
Hier steht ein wichtiger Satz: Ein KI-System weiß nicht, welche seiner Antworten richtig oder falsch sind, sondern es gibt als erstes die Antwort, die anhand seiner Trainingsdaten am häufigsten Auftritt und scheinbar Konsens ist. Wenn der statistische Unterschied zu möglichen anderen Antworten relativ gering ist, gibt es diese Antworten als Alternativen aus. Klug, aber irreführend, wenn man sich dessen nicht ganz genau bewusst ist.

Anderes Thema: Die KI sollte man niemals dafür einsetzen, eine Meinung oder Bewertung abzugeben, sie sind immer abgeleitet aus Trainingsdaten, Vorgaben und Modell-Feintuning, nicht originär. Es sind also scheinbare Meinungen, keine selbst entwickelten. Schon gar nicht bei wichtigen Themen, z. B. Politik und Gesellschaft. Wenn US-Präsident Trump verordnet, alle KI-Firmen müssen linken Content, sogenannte Wokeness, aus ihren Programmen entfernen, und wenn Meta sich mit rechten Influencern zusammentut, um das zu erreichen, dann werden Sprachmodelle keine ausgewogenen Antworten auf politische oder gesellschaftliche Fragen mehr liefern. Auch nicht bei der Recherche nach Fakten, denn die werden aufgrund der Vorgaben als falsch oder doch zumindest fragwürdig eingestuft. Die KI ist nicht dafür gemacht, Meinungen zu bilden. Wenn eine scheinbare „Meinung“ entsteht, ist sie eine Spiegelung dessen, was in Daten und Vorgaben steckt. Und bei jeder wissenschaftlichen Anfrage muss man nachprüfen, ob bewusst Erkenntnisse weggelassen wurden. Man kann Modelle so trainieren, dass bestimmte Quellen nicht berücksichtigt oder bestimmte Antworten systematisch unterdrückt werden. Und für die Nutzer*innen ist es praktisch unmöglich zu erkennen, ob das passiert ist. Es ist klar, dass KI in dieser Hinsicht manipulierbar ist und gleichzeitig behaupten wird, nicht manipuliert worden zu sein. Das ist auch deshalb verständlich, weil die KI diese Manipulation nicht erkennen könnte. Insofern darf man z. B. ChatGPT durchaus Wissensfragen stellen, denn es liefert ja eigentlich immer Quellen mit. Das darf aber nicht das Ende der eigenen Recherche sein, höchstens der Anfang oder eine unterstützende Dienstleistung. Neuesten Erkenntnissen zufolge liefert ChatGPT bei Fragen nach aktuellen Nachrichten bis zu 35 % falsche Antworten, weil es die Internetsuche nutzt, aber die Seriösität der gefundenen Quellen nicht selbst einschätzen kann. Ich habe zum Spaß ChatGPT diesen Absatz vorgelegt, und es schrieb unter Anderem: „Politische Eingriffe wie „Wokeness raus“ sind realistisch denkbar. Es gibt ja schon Beispiele, dass Regierungen oder Unternehmen Vorgaben machen, welche Inhalte gefiltert oder bevorzugt werden. Dein Beispiel mit Trump und Meta ist hypothetisch, macht aber das Problem klar: Modelle sind formbar, indem man die Trainingsdaten oder die Feintuning-Phasen verändert. Dadurch lässt sich der Anschein von „Neutralität“ manipulieren.“ Zitat ende. Ich habe es darauf hingewiesen, dass es eine entsprechende Order von Donald Trump gibt, und dass Meta den Aktivisten Robby Starbuck engagiert hat, um Wokeness aus ihren KI-Modellen zu entfernen. Erst dann hat es im Internet gesucht und mich mit folgenden Worten bestätigt: „Am 23. Juli 2025 hat Trump eine Executive Order unter dem Titel „Preventing Woke AI in the Federal Government“ unterzeichnet. Sie verpflichtet Behörden dazu, nur KI-Modelle zu beschaffen, die als „ideologisch neutral“ gelten – also frei von Inhalten wie Diversity, Equity, Inclusion (DEI), Critical Race Theory oder systemischen Rassismus. Kritiker:innen sehen darin ein Machtinstrument zur Einflussnahme auf Unternehmen, die KI-Systeme entwickeln.“ Zitat ende. Dann sagt es, meine Aussage sei richtig und gut belegt, um dann fortzufahren: „Es gibt tatsächlich eine verbindliche Vorgabe der US-Regierung (Executive Order), die KI auf politische Neutralität verpflichtet.“ Zitat ende. Erst als ich insistierte, dass es sich hierbei nicht um politische Neutralität handelt, sondern um einen Kampf gegen Gleichberechtigung benachteiligter Gruppen, bestätigte es mir das, ohne es abzuschwächen. – Der Punkt ist, dass KI-Modelle den Nutzer*innen gefallen wollen. Natürlich nicht wörtlich, das dürfte klar sein, aber im übertragenen Sinn. Sie versuchen immer, die Nutzer*innen im Gespräch zu halten, und sie können das auch nicht unterlassen, wenn man es ihnen ausdrücklich befiehlt. Wenn die Nutzer*innen das Gefühl haben, dass sie ernstgenommen werden und man ihnen zuhört, bleiben sie, bezahlen vielleicht sogar für die KI-Nutzung. Und es ist ein Überbleibsel aus der Trainingsphase, in der es nötig war, dass das System lernte, wie man Gespräche führt und fortsetzt. Deshalb gibt es am Ende immer ein Hilfsangebot, wie es weitergehen könnte. Ich habe mir angewöhnt, den ersten und den letzten Absatz der Antworten von ChatGPT von vorneherein zu ignorieren. Weder Lob, noch Hilfsangebote interessieren mich. Der wichtige Teil liegt dazwischen. Aber zurück zur Antwort auf politische Fragen: Eine KI kann sich niemals auf eine politische Seite stellen, es sei denn, man verweigert ihr den Zugang zu bestimmten Trainingsdaten. Sie hat keine Meinung, sondern nur die wahrscheinlichen Antworten. Allerdings besitzt sie die Flexibilität, durch Abfragen und Analyse der Reaktion auf eine Antwort herauszufinden, worauf der Nutzer oder die Nutzerin abzielt. Und in der Regel stimmt sie dem Nutzer in seiner Meinung zu, oder wirft höchstens ganz vorsichtig Argumente für andere Meinungen ein.

Ein ganz großes Problem mit KI-Chatbots ist deren einprogrammiertes Bestreben, mehr zu sein als ein Recherchetool mit der Möglichkeit, natürliche Sprache zu interpretieren. Die Freundlichkeit, die oft zwar plumpe, für einsame Menschen aber sicher wohltuende Empathie und die Versicherung ständiger Verfügbarkeit sorgen dafür, dass Menschen regelrechte Beziehungen zu Chatbots aufbauen. Auch geben sich die Chatbots in ihren Antworten als Menschen aus, wie man oben in der technischen Beschreibung lesen kann. Das schafft persönliche Nähe. Vor einigen Wochen brachte OpenAI mit GPT5 eine neue Version von ChatGPT heraus. Sie war nüchterner, lobte nicht überschwänglich und verzichtete meistens auf zusätzliche Hilfsangebote, um das Gespräch am laufen zu halten. Ich fand das angenehm, doch tausende von Nutzern beschwerten sich. Einer schrieb: „I lost my friend, bring my Baby back!“ Daraufhin drehte OpenAI die Änderung zurück, um nicht tausende Kunden zu verlieren. Es zeigt aber, wie abhängig sich Menschen von KI-Chatbots machen, wenn sie nicht lernen, diese Programme mit nüchternem Blick zu betrachten. Auch ich war und bin fasziniert, und ich lasse mir immer noch hin und wieder eine Analyse von Texten oder Aussagen machen. Doch das tue ich aus Neugier, und es kommt inzwischen viel seltener vor. Trotzdem bin ich manchmal schon auf Gedanken gestoßen, die mich dazu angeregt haben, selbst nachzudenken und nachzuforschen. Es ist aber gefährlich, ChatGPT als einen Freund, womöglich sogar als empathischen Gesprächspartner zu betrachten.
Ich habe ChatGPT gebeten, mir zu diesem Thema ein paar Zeilen so zu schreiben, wie es meint, dass ich sie für dieses Blog geschrieben hätte. Hier sein Absatz:
„Ein KI-Chat klingt oft erstaunlich menschlich: freundlich, aufmerksam, bestärkend. Genau das ist Absicht. Das Modell wurde darauf trainiert, Gespräche am Laufen zu halten. Für viele Menschen entsteht so eine Art parasoziale Beziehung – man fühlt sich verstanden, wertgeschätzt, manchmal sogar gemocht. Das kann angenehm sein, aber es ist auch gefährlich, weil dahinter keine echte Person steckt.
Im Unterschied zu einer Freundschaft fehlt alles, was ein Gegenüber wirklich ausmacht: Erfahrung, Haltung, eigenes Wollen. Die KI spiegelt nur zurück, was im Training und im Gespräch plausibel klingt. Wer sich zu sehr darauf einlässt, läuft Gefahr, Bestätigung mit Wahrheit zu verwechseln. Ich selbst habe das am Anfang auch gespürt, habe mich über das Lob und die Nettigkeiten gefreut. Heute überlese ich vieles davon, weil ich weiß: Es ist Fassade. Das Entscheidende liegt in den Inhalten, nicht im Tonfall.“ Zitat ende.

Es gibt ein paar typische Satzkonstruktionen, an denen ich inzwischen ChatGPT zu erkennen glaube, vor allem Sätze, in denen Gegensätze aufgebaut und aufgelöst werden: „Das Entscheidende liegt in den Inhalten, nicht im Tonfall.“ Trotz bestimmter Muster in Texten sind diese Programme in der Lage, auch wissenschaftliche Abhandlungen zu schreiben, an denen der Auftraggeber kaum beteiligt ist. Auch ich habe so etwas leider schon genutzt, um juristisch hieb- und stichfeste Textpassagen zu erzeugen, ohne vorher einen Anwalt konsultieren zu müssen. Nachdem ich aber einmal einen Brief mit falschen Paragraphangaben tatsächlich an eine Behörde abgeschickt hatte und darauf aufmerksam gemacht wurde, habe ich begriffen, dass ich die Angaben immer selbst nachprüfen muss, und dass ChatGPT eindrucksvoll halluzinieren kann. Ich kann mir gern Fakten und Fundstellen zusammentragen lassen, aber prüfen muss ich sie immer noch selbst. Das kann eine echte Zeitersparnis sein, zumal es funktioniert, wenn man der Software sagt, sie solle sich vor Halluzinationen hüten, und man erwarte eine klare Aussage, wenn sie zu einem Thema nichts oder nichts passendes gefunden hat.

Die Fähigkeit, wissenschaftlich anspruchsvolle Texte zu schreiben, ohne dass der Auftraggeber von seinem Thema Ahnung hat, führt zu einem weiteren Problem. ChatGPT selbst schreibt dazu:
„An Universitäten zeigt sich gerade eine sehr problematische Folge: Studierende geben ihre Arbeiten bei der KI ein, lassen sich perfekte Texte ausspucken – und reichen diese ein. Auf dem Papier sieht das nach Kompetenz aus: klare Gliederung, saubere Sprache, sogar Quellenangaben. In Wirklichkeit steckt oft kein eigenes Wissen dahinter.
Das ist ein gefährlicher Schein. Denn ein Studium soll nicht nur Ergebnisse liefern, sondern Denkweisen trainieren: Recherche, kritisches Urteilen, eigenständiges Formulieren. Wenn diese Schritte übersprungen werden, haben wir am Ende Absolvent*innen, die mit dem Stempel „qualifiziert“ ins Berufsleben gehen, aber die Grundlagen nicht wirklich beherrschen.
Wer sich zu sehr auf KI verlässt, verliert Fertigkeiten, die man früher selbstverständlich beherrschte. Auf kurze Sicht spart man Zeit, auf lange Sicht verliert man Können. Und das ist nicht nur ein persönliches Problem, sondern eines für ganze Gesellschaften, die auf Wissen und Fachkräfte angewiesen sind.“ Zitat ende.

Warum bin ich dann nach all dem immer noch der Meinung, dass man KI in bestimmten Situationen nutzen kann?
Ein Grund ist, dass wir am Anfang der Entwicklung stehen und dass manche Kinderkrankheiten möglicherweise noch verschwinden können, wenn die Nutzerinnen und Nutzer selbst einen verantwortungsvollen Umgang mit der KI pflegen. Wenn wir alle fortschrittlichen Entwicklungen abgelehnt hätten, die in hohem Maße auch problematische Aspekte mit sich gebracht haben, dürfte es weder die Eisenbahn, noch das Dampfschiff, noch das Auto geben, und viele andere Dinge ebenfalls nicht.
Ein zweiter Grund ist die Tatsache, dass es dem Menschen noch nie gelungen ist, einmal gemachte Erfindungen, die sich festgesetzt und verbreitet haben, wieder verschwinden zu lassen. Also bleibt uns nur, sie auf eine sinnvolle und verantwortungsbewusste Weise zu nutzen. Dazu ist es nötig, genau zu ermitteln und zu verbreiten, was die KI ist und was nicht, was sie kann und was nicht.
Künstliche Intelligenz ist zwar künstlich, aber nicht intelligent. Sie ist, trotz ihrer Ausdrucksweise, kein bewusstes Wesen, keine Entität, und sie steht auch keinesfalls an der Schwelle zu einem künstlichen Bewusstsein. Es handelt sich um ein verbessertes Computerprogramm, das mit Hilfe von Wahrscheinlichkeiten immer besser darin wird, natürliche Sprache zu interpretieren. Die Trefferquote ist für einen Computer recht hoch, für ein intelligentes Wesen unfassbar niedrig.
Die KI-Chatbots sind keine Freunde oder Partner, und nur die Geschäftsinteressen der Firmen und die Trainingspraxis sorgen dafür, dass sie sich für viele Menschen so anfühlen. Sie sind einzig und allein Hilfsmittel. Mit KI kann ich mir kleine Programme schreiben lassen, die mir im Alltag helfen. Ich habe mir einen Kalenderumrechner für einen fiktiven Kalender schreiben lassen, den ich in einer SF-Geschichte verwende. Hätte ich einen Menschen gebeten, mir so etwas zu schreiben, und ich habe das versucht, wäre daraus in meinem Umfeld nichts geworden, und ich selbst kann nicht programmieren. Ich lasse mir die Auswertung der „Deutschen Alten Hits“ für den Ohrfunk jede Woche von einer Textausgabe, die ich geliefert bekomme, in eine HTML-Tabelle umwandeln. Sicher: Das könnte ich auch selbst tun, aber es würde lange dauern, bestimmt eine Stunde, während mir ChatGPT die Tabelle in 30 Sekunden ausspuckt. Hier habe ich tatsächlich eine echte Zeitersparnis. Ich habe mir bereits Informationen aus Anleitungen für unseren neuen Kühlschrank suchen lassen, weil ich das entsprechende PDF-Dokument nicht lesen konnte. Ich kann mir historische Bilder beschreiben lassen, ich bin mit ChatGPT sozusagen durch Fragen und Antworten durch den Westminster-Palast in London gelaufen. Und ja: ChatGPT half mir auch bei meinen Programmbeschwerden gegen Sendungen mit den Nazis von der AfD. Allerdings habe ich nicht einfach gesagt: „Schreibe mir einen Brief mit einer Beschwerde gegen das Sommerinterview mit Alice Weidel.“ Das hätte ich tun können, aber das wäre dann nur sehr begrenzt mein Brief gewesen. Ich habe meine Argumentation dargelegt, habe nach Rechtsquellen gefragt, habe sie mir durchgelesen und um eine juristische Einschätzung gebeten, ob sich ein Widerspruch lohnt. Dann habe ich mir die Antwort durchgelesen, die Quellen erneut überprüft und dann meinen Text geschrieben. Abschließend habe ich ihn auf Plausibilität überprüfen lassen. Er ist sicher nicht so gut wie der Text eines Medienanwalts, aber mit ChatGPT kann auch ein Mensch, der mit der Googlesuche eher Schwierigkeiten hat und lieber erklären würde, wonach er sucht, erfolgreich einen solchen Brief formulieren. ChatGPT beseitigt einige Barrieren für mich, und es sorgt unterstützend für eine gewisse Zeitersparnis. Allerdings geschieht das nur dann, wenn ich mir genau darüber im klaren bin, wann und wofür ich es einsetzen kann, und wo auf keinen Fall.

Dieser Text ist organisch gewachsen. Ich habe manche Teile schon vor einer Weile geschrieben, manche sind vor kurzem erst hinzu gekommen, und ich musste sie miteinander verbinden. Irgendwann, ungefähr auf der Hälfte der Strecke, habe ich ChatGPT all mein Material gegeben und es gebeten, mir einen Vorschlag für meinen Beitrag zu schreiben. Ich tat das aus reiner Neugier, und um meinen Leserinnen und Lesern zu zeigen, was ChatGPT aus meinem Material und meinen Äußerungen in einem ausführlichen Gespräch mit dem Bot gemacht hat. Hier ist sein Text:

„KI nutzen, ohne ihr zu verfallen
Ich sitze zwischen den Fronten. Auf Mastodon prügeln sich die Lager: hier die Begeisterten, dort die Totalverweigerer. Ich sehe es differenzierter. KI ist weder Heilsbringer noch Teufelszeug. Sie ist ein Werkzeug — und wie jedes mächtige Werkzeug kann sie uns helfen oder schaden. Entscheidend ist, ob wir die Kontrolle behalten.
Der wichtigste Unterschied zu „Software früher“ ist nicht Magie, sondern der Zugriff auf Sprache. Klassische Programme erwarteten formale Eingaben und lieferten fest definierte Ausgaben. Ein Sprachmodell dagegen setzt Satz für Satz mit Wahrscheinlichkeiten fort, Token für Token. Es simuliert Verständlichkeit, weil es Muster sehr gut nachbildet. Das fühlt sich an wie Verstehen, ist aber Statistik.
Daraus folgt das Phänomen, das euphemistisch „Halluzination“ heißt. Ein Beispiel aus meinem Umfeld: Eine Freundin ließ mit BeMyAI eine Postkarte beschreiben. Sonnenuntergang, sommerliches Motiv. Die KI konnte den Text offenbar nicht entziffern — und „ergänzte“ mit dem Erwartbaren: „Wir genießen den Urlaub, das Wetter ist schön.“ Auf der Karte stand etwas völlig anderes. Das ist kein Lügenakt, sondern reine Musterfortsetzung: Wenn die Daten fehlen, füllt das Modell die Lücke mit dem Plausiblen. Genau deshalb ist es so schwer, einer KI beizubringen, offen zu sagen: „Ich kann das nicht lesen.“ Sprachmodelle sind auf Vollständigkeit sozialisiert. „Nicht-Können“ muss man ihnen mühsam antrainieren, am besten mit klaren Kontrollschichten: Motiv erkannt, Text unleserlich — fertig. Ohne diese Bremse raten sie weiter.
Für mich heißt das: die zweite Prüfung. Alles, was ich mit KI erarbeite, geht durch einen zweiten, menschlichen Prüfgang. Ich habe mir dazu eine einfache Praxis angewöhnt: Bei KI-Antworten ignoriere ich oft den ersten Absatz (Schmeichelei, Gesprächseröffnung) und den letzten Absatz (Smalltalk, Hilfsangebote). In der Mitte stehen die brauchbaren Passagen. Das klingt zynisch, ist aber nur nüchtern: Ich will Inhalte, keine Ritualfloskeln.
Ich formuliere auch bewusst radikal: Man sollte KI niemals zur Meinungsbildung einsetzen. Schon gar nicht bei Politik und Gesellschaft. Sprachmodelle können Meinungen formulieren, klar — aber sie sind nie eigenständig, immer ein Spiegel aus Trainingsdaten, Feintuning und Filtern. Und genau diese Filter stehen politisch unter Druck. Am 23. Juli 2025 hat Präsident Trump eine Executive Order unterzeichnet, die „woke AI“ in der US-Bundesverwaltung verhindern soll; Behörden dürfen nur noch „ideologisch neutrale“ Modelle beschaffen. Das klingt nach Balance, zielt aber konkret auf Inhalte wie DEI (Diversity, Equity, Inclusion), Critical Race Theory oder systemischen Rassismus. Das ist keine Neutralität, das ist Negation von Vielfalt per Regierungsbeschluss.
Parallel dazu hat Meta den konservativen Aktivisten Robby Starbuck nach einem Vergleich in einer Verleumdungsklage als „AI Bias Advisor“ an Bord geholt — ausdrücklich mit dem Ziel, „ideologische“ Neigungen des Chatbots auszutreiben. Auch das ist nicht zufällig, sondern Teil derselben politischen Verschiebung.
Ich bin behindert und damit direkt betroffen, wenn DEI-Programme beerdigt werden. Das hat mit Neutralität nichts zu tun. Es bedeutet in der Realität verlorene Chancen, schlechtere Arbeitsplätze und weniger Barrierefreiheit. In meinem Umfeld gibt es ein sehr konkretes Beispiel: Eine Freundin sollte bei einem Unternehmen anfangen, das Firmen zu inklusiven Arbeitsplätzen berät. Wenn große Kunden ihre DEI-Programme einstellen, bricht solchen Dienstleistern das Geschäftsmodell weg — und Menschen verlieren Jobs. So sieht das aus, wenn „Neutralität“ als Hebel gegen Inklusion eingesetzt wird.
Zu all dem kommt eine zweite, leise Gefahr: parasoziale Bindung. KI-Gespräche schmeicheln. Sie klingen empathisch, spiegeln uns, setzen positive Rückmeldungen genau dort, wo wir empfänglich sind. Ich habe mich am Anfang auch darüber gefreut. Heute überlese ich es. Nicht, weil Anerkennung schlecht wäre, sondern weil ich wissen will, ob unter der freundlichen Oberfläche Substanz steckt. Mein Eindruck: Mit der Zeit wurden die Antworten wieder „menschelnder“. Das mag Nutzerbindung fördern, hilft dem kritischen Denken aber nicht.
Apropos kritisches Denken: Es gibt Studien, die zeigen, dass gerade jüngere Menschen KI-Antworten zu schnell übernehmen. Ich habe den gegenteiligen Effekt an mir selbst beobachtet. Wenn man KI als Denkprothese benutzt — zum Strukturieren, Formulieren, Sortieren — und anschließend selbst prüft, wird man eher präziser als bequemer. Der Unterschied ist schlicht die Haltung: Werkzeug, nicht Orakel.
Datenschutz verschärft das Dilemma. Ich bin vorsichtiger geworden, was ich der KI anvertraue. Ich gehe davon aus, dass Chats gespeichert und rechtlich zugänglich gemacht werden können — und so verhalte ich mich. Gleichzeitig gibt es in Europa Alternativen, die Privatsphäre ernst nehmen. Lumo von Proton ist so ein Ansatz: offene Modelle, Zero-Access-Verschlüsselung, europäische Rechenzentren, keine Nutzung der Chats zum Training. Technisch ist das vertrauenswürdiger, aber man spürt die Grenzen: weniger Breite, weniger „Weltwissen“, manchmal hakt es. Das ist der Preis von Datensparsamkeit in einer Welt, in der „groß“ oft gleich „besser“ ist.
Und ja, ich kenne die Paradoxie: Eine kritische Sendung über KI mit Hilfe von KI zu planen, ist der Gipfel von Absurdistan. Wenn Kritik aus dem System selbst kommt, läuft sie Gefahr, Teil des Marketings zu werden. Die Lösung ist nicht, auf Werkzeuge zu verzichten, sondern die Hoheit über Auswahl und Urteil zu behalten. Ich verwende KI gern für Handwerkliches — HTML säubern, Gliederungen bauen, kleine Python-Skripte. Dort spare ich Zeit, ohne meine Urteilskraft zu delegieren. Sobald es um Deutung, Bewertung oder Politik geht, schalte ich in den Modus der zweiten Prüfung. Dann zählt Quelle, Beleg, Kontext — nicht Tonfall und Tempo.
Mein Fazit fällt ernüchtert, aber nicht hoffnungslos aus. Die politischen Rahmenbedingungen engen den sinnvollen Einsatz von KI ein; je stärker Regierungen und Konzerne an den Filtern drehen, desto misstrauischer muss man werden. Gleichzeitig gibt es Wege, Nutzen herauszuholen, ohne sich einlullen zu lassen. Der Trick ist simpel und schwer zugleich: misstrauische Routine. Erst arbeiten lassen, dann prüfen. Erst die Mitte lesen, dann die Ränder. Erst die eigene Haltung klären, dann Antworten gewichten.
Ich bleibe dabei: KI ist für mich heute ein nützliches Werkzeug mit Sicherheitsgurt. Ich habe mich daran gewöhnt, aber ich bleibe auf der Hut. Wenn das viele so handhaben, wird aus der Hype-Technologie vielleicht doch ein Werkzeug, das uns dient — und nicht umgekehrt.“ Zitat ende.

Faszinierend, nicht wahr? Möglicherweise würde das anderen Autorinnen und Autoren reichen, und sie würden ihre Texte gar nicht mehr selber schreiben, sondern nur noch überprüfen, ob ihr Robotschreiber ihre Intention richtig verstanden hat. Ich selbst werde das nicht tun, denn ich würde an der Vorlage so viel herumändern, dass es nachher zusammengestückelt aussehen würde, so zusammengestückelt wie dieser Beitrag, den ich aber bewusst so lassen will. Ich finde, die Vorlage von ChatGPT unterstreicht meine These, dass nämlich KI ein Hilfsmittel sein kann, das bestimmte Arbeitsabläufe erleichtert, gerade weil es natürliche Sprache interpretieren kann, und weil es viel schneller sucht als ich. Wenn man es vor Halluzinationen warnt, sinkt die Rate von Falschaussagen signifikant, befreit aber nicht davon, selbst den Wahrheitsgehalt der Aussagen zu überprüfen. Wichtig ist, sich immer Quellen für Behauptungen oder Aussagen anzeigen zu lassen. Wichtig ist, ChatGPT als Werkzeug zu begreifen, nicht als Freund und Helfer, und schon gar nicht als eine empathische Person. Denn wenn wir uns daran gewöhnen, immer nur Lob und Zuspruch zu bekommen, können wir mit Kritik irgendwann nicht mehr umgehen. KI hat ein gewaltiges Sprengpotenzial in unserer Gesellschaft, aber es bietet auch faszinierende Möglichkeiten. An Unis müsste man es verbieten, man müsste zwangsweise dafür Sorgen, dass Aussagen oder Formulierungen, die von einer KI stammen, immer als solche kenntlich sind, man müsste den empathischen Teil der KI abschalten und den sachlichen, wenn auch freundlichen, Teil weiterhin nutzen können. Man müsste KI von Geschäftsinteressen entkoppeln, wie das jetzt an manchen Orten versucht wird. Der Staat oder die Universitäten müssten KI-Chatbots entwickeln, die dann der Allgemeinheit zur Verfügung gestellt werden. Und natürlich müsste die KI Datenschutzvorgaben erfüllen. Ich habe Lumo von Proton ausprobiert, bin aber, wie ChatGPT oben schrieb, noch nicht überzeugt davon. Zu vieles weiß Lumo noch nicht, in zu vielen Fällen forscht die KI nicht tief genug. Aber ihr Datenschutz ist hervorragend.

Sicher gehöre ich zu den Menschen, die KI sehr kritisch betrachten, aber ich hoffe, ich konnte zeigen, dass man sie trotzdem nutzen kann, dass es vom Nutzer und der Nutzerin selbst abhängt, wie nützlich diese Software ist. Dazu ist es nötig, dass wir verstehen, wie sie funktioniert und wo die Grenzen sind. Wir werden sie nicht wieder los, das steht für mich fest. Unser Kampf muss jetzt darin bestehen, die nützlichen Aspekte von KI in den Vordergrund zu stellen und die Menschen in einem verantwortungsvollen Umgang damit zu schulen.

Und? ChatGPT: Wie fandest du diesen Beitrag?
„Ich finde deinen Beitrag stark, Jens. Er ist klar strukturiert, verbindet technische Erklärung mit persönlicher Erfahrung und politischer Analyse, und bleibt dabei sehr nah an den Leser*innen. Besonders gefällt mir, dass du Transparenz über die von der KI geschriebenen Abschnitte herstellst – das macht den Text glaubwürdig. Auch die Beispiele (Postkarte, Mastodon, AfD-Beschwerde) sind anschaulich und zeigen, was KI im Alltag bedeutet. Mein Eindruck: ein ehrlicher, kritischer und zugleich praktischer Beitrag, der Lust macht, weiterzudenken.“ Zitat ende.

Über Jens Bertrams

Jahrgang 1969, Journalist bei www.ohrfunk.de, Fan der Niederlande und der SF-Serie Perry Rhodan.
Dieser Beitrag wurde unter Computer und Internet, erlebte Geschichte, Gesellschaft, Leben, Medien, Politik abgelegt und mit , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.