Zum Rezepte-Letter: Jetzt anmelden!

ChatGPT kocht keine Gefühle

ChatGPT kocht keine Gefühle
Wenn Maschinen kochen: Das KI-Rezept für Béchamelsauce endet in verbranntem Mehl, übergekochter Milch und einem unbrauchbaren Zettel. Geschmack ist nicht programmierbar.

Autor: ist Koch und  Food-Fotograf. Hier teilt er Rezepte und hilft beim Kochen.

Sie klingt schlau, schreibt schnell und weiß scheinbar alles: Die sogenannte künstliche Intelligenz.

Doch sobald es in der Küche ernst wird, versagt sie kläglich. Ich habe es ausprobiert und kann es dir sagen: ChatGPT kann nicht kochen. Punkt.

Finde hier meine Erfahrungen zum Thema neuer Küchenwahnsinn…

Eine Béchamelsauce zum Vergessen

Neulich habe ich aus reiner Neugier ein Rezept für eine Béchamelsauce schreiben lassen. Von ChatGPT.

Die Zutatenliste? Ganz okay, aber ohne Details. Die Zubereitung? Ein Desaster.

Die Butter wurde irgendwo in der dritten Zeile vergessen, das falsche Mehl falsch angeröstet (richtig wäre: angeschwitzt), die Milch warm statt kalt ergänzt und nicht sauber eingearbeitet.

Wer dieser Anleitung folgt, bekommt keine Sauce, sondern eine dicke Kleister-Béchamel ohne Hoffnung. Kein Geschmack, keine Konsistenz, kein Gefühl. Nur Masse.

Das geht besser mit einem richtigen Rezept für Béchamelsauce.

Sprachmodell statt Kochverstand

Ich habe weitere Versuche gestartet, zur Recherche, aus Spieltrieb, auch um herauszufinden, was diese Modelle eigentlich von meiner Arbeit verstehen.

Parallel erschienen Studien, unter anderem von Apple, die deutlich machen, dass Sprachmodelle keine Denker sind. Sie erzeugen sprachliche Illusionen von Verstehen, aber ohne Verständnis.

Eine weitere aktuelle Untersuchung zeigt: Wer häufig KI verwendet, trainiert sich das eigene Denken ab. Maschinen denken nicht. Und wir verlernen es dabei auch.

Die Antwort ist also ernüchternd: Diese Modelle sind keine Spitzen-Köche. Schon gar keine Rezeptentwickler. Und erst recht keine Experten.

Die Zutaten sind irgendwo abgeschrieben, das Timing fehlt, zusammengewürfelt aus tausenden Quellen. Am Ende steht ein Text, der weder funktioniert noch schmeckt.

Was die KI nicht schmecken kann

Sprachmodelle kennen Grammangaben und Gartabellen, aber keine Emotionen, keine Aromen, keine Stille zwischen zwei Handgriffen.

Sie wissen nicht, wie Spargel duftet, wenn er genau richtig gegart ist. Und sie werden es nie wissen.

Sie wiederkäuen ungefragt und unautorisiert den mittelmäßigen Geschmack des Internets.

Dazu passt für mich das Zitat von Wolfram Siebeck: „Ich esse nicht alles, nur weil es auf dem Tisch steht.“

Rezepte aus der Retorte

Als Content Creator frage ich mich: Wo soll das alles hinführen?

Schon heute stimmen viele Rezepte in Zeitschriften nicht mehr.

Warum? Weil dort keine Köche oder Professionals am Werk sind, sondern Redakteure oder Praktikanten, die Bilder einkaufen und ein Rezept dazu erfinden.

Ohne zu kochen, ohne zu backen, ohne zu testen, ohne jede Verantwortung.

Und jetzt kommen Google, ChatGPT, Gemini und andere angeblich intelligente Systeme.

Sie sind gefüttert mit Inhalten, die aus meiner Sicht, zu großen Teilen ohne Zustimmung der Urheber verwendet wurden.

Google kocht Datenbrei und verkauft ihn als Delikatesse

Google rührt kräftig um, doch was oben rauskommt, ist kein Wissen, sondern Instant-Wissensersatz.
Ohne Herkunft, ohne Mensch, ohne Rezept, ohne Geschmack, ohne Seele.

Da, wo früher die Suche begann, beginnt heute der Sog.
Ein Antwortfeld, glatt wie schlechte Sojasauce und genauso dünn.

Google spielt Chef de Cuisine und serviert Phrasenpanade:

Abgeschmeckt mit Halbwissen, abgeschrieben aus Millionen Quellen.
Die Urheber? Verschwunden im Datendampf.

War das die große Idee von Larry Page und Sergey Brin?

Eine globale Suppenküche für synthetische Antworten?

Texte, Tipps, Rezepte. Alles wird zerhäckselt, entkernt, algo aufgewärmt.

Dann: Wer Inhalte macht, bleibt hungrig. Wer sucht, bekommt Masse statt Klasse.
Und wer denkt, wird ersetzt durch ein Vorschlagsmenü.

Das freie Internet wird nicht gelöscht, es wird verkocht.
Langsam. Schleichend. Systematisch.

Was bleibt?
Paywalls, Copy-Paste-Content, Geschmacksarmut.

Und mittendrin ein Konzern, der den Löffel hält, aber nicht probiert.

Fazit: Wer wieder echten Geschmack will, muss zurück zur Quelle.

Zu Menschen, nicht Maschinen.
Zu Inhalt, nicht Output.
Zum Rezept, nicht zur Antwort.

Zeit für echte Menschen und echtes Essen

Dem Hype wird die Ernüchterung folgen. Zum Glück erledigen das die Modelle selbst: Effizient und zuverlässig.

In spätestens zwei Jahren werden viele Rezepte in Kochbüchern nicht mehr kochbar sein, weil Verlage sich entscheiden, den Algorithmus schreiben zu lassen, nicht den Menschen.

Ich glaube:

Du wirst irgendwann vielleicht vor einem Teller sitzen und dich fragen, was das eigentlich werden sollte.

Und dann beginnt vielleicht wieder eine Zeit, in der wir echte Menschen fragen:

Nach einem Kochtipp. Nach Schweinebraten der gelingt und schmeckt.

Nach dem Zitronenkuchen der saftig ist.

Letztendlich nach dem, was wirklich schmeckt.

Was nach 35 Jahren Kochen bleibt

Meine Erfahrung aus 35 Jahren Kochen, Fotografieren und Schreiben:

Kochen ist keine Information. Es ist ein Handwerk. Eine Erfahrung. Ein Prozess. Eine Kunst.

Dafür braucht es Menschen. Übung. Fehler. Geschmack. Hitze. Und Liebe.

Und manchmal auch eine Prise Cayennepfeffer.

Dein Weg zu echtem Genuss

Vielleicht teilst du diese Gedanken. Vielleicht hast du schon eigene Erfahrungen gesammelt.

Wenn du dir den Umweg über algorithmisch erzeugte Rezepte sparen willst, dann bleib einfach hier.

Und koche dich glücklich.

Du kannst meine Rezepte mit Werbung kennenlernen, oder meine Arbeit mit einem Abo unterstützen.

Mit nur 2 Euro bist du dabei. Du kochst ehrlich, genießt richtig und bist Teil einer Community, die weiß, wie echter Geschmack entsteht.

-> Werde Teil meiner Koch-Community und hol dir das Abo.
Für handwerklich ehrliche Rezepte, Kochprofi-Tipps und alles, was wirklich schmeckt.

Hintergrund und weiterführende Links

1. New York Times klagt gegen OpenAI und Microsoft (Golem mit Update)

Ein Medienhaus zieht die Reißleine: Die NYT geht juristisch gegen OpenAI und Microsoft vor: Wegen der unautorisierten Nutzung journalistischer Inhalte fürs Training. Das Verfahren läuft noch, befindet sich derzeit in der sogenannten Discovery-Phase. Es bleibt spannend, wie weit die Gerichte hier gehen.

2. Getty Images klagt auch in den USA gegen Stability AI (heise online)

Die Softwarefirma Stability AI wurde zunächst in London verklagt, nun läuft auch ein Verfahren in den USA, am Bundesgericht in Delaware. Im Kern geht es um den Vorwurf, dass ihre KI „Stable Diffusion“ auf urheberrechtlich geschützten Bildern trainiert wurde, ohne Zustimmung der Rechteinhaber. Die Klage zielt darauf ab, das Geschäftsmodell grundsätzlich infrage zu stellen, sowohl aus urheberrechtlicher als auch aus wirtschaftlicher Sicht.

3. US‑Autoren (u. a. Sarah Silverman) klagen gegen OpenAI (RND)

Autorinnen, Künstler, Schriftsteller, auch sie wollen wissen, was mit ihren Texten passiert ist. Die Klage ist eingereicht, aber der Fall zieht sich. Ein Urteil gibt es noch nicht.

4. The Illusion of Thinking – Apple Machine Learning Research, 2024 (PDF)

Auch Apple selbst stellt fest: Sprachmodelle wirken oft klug, haben aber keine Vorstellung davon, was sie sagen. Es ist berechnete Sprache, mehr nicht.

5. AI usage makes your brain lazy – Studie zur kognitiven Abhängigkeit (arXiv, Juni 2025)

Die spannendste Frage aus Nutzerperspektive: Macht KI uns selbst dümmer? Laut dieser neuen Studie kann der ständige KI-Konsum unsere eigene Denkfähigkeit messbar beeinträchtigen.