Da gibt es sehr viele Kriterien. Ich werde einfach mal eins herausgreifen: Wiederholungen.

Wir sind ein Verlag, und demzufolge bleiben auch wir von der KI-Welle nicht verschont. Nur dass wir die KI-Bücher – im Gegensatz zu dem großen Verlag, von dem gestern in meinem Beitrag die Rede war – erkennen und nicht veröffentlichen.

Schon die Anfänge solcher Bücher sind meistens sehr verdächtig, aber wenn man tatsächlich weiterliest, gibt es eine Sache, die ausgesprochen auffällig ist: inhaltliche Wiederholungen.

Ja, auch in von Menschen geschriebenen Büchern kommt das vor – und daher hat es die KI ja teilweise auch –, aber so extrem wie von der KI produziert ist es doch selten. Was ich auch früher schon festgestellt habe, ist, dass Autorinnen, die Liebesromane schreiben, dazu neigen, vor allem Liebesszenen und noch mehr Sex-Szenen fast wortwörtlich einmal am Anfang des Buches und einmal mehr zum Ende hin zu wiederholen. Wenn es mehr als zwei Sex-Szenen im Buch gibt, eventuell auch öfter.

Ich unterstelle nicht, dass die Autorin das tatsächlich einfach so kopiert. Ich glaube, den meisten ist es gar nicht bewusst, wie sehr sie sich bei der Beschreibung gewisser Handlungen wiederholen. Weil ihnen der Wortschatz fehlt, es anders zu beschreiben, abwechslungsreicher. Oder auch die Phantasie.

Sex kommt allerdings in einem erotisch angehauchten Liebesroman meistens mehr als einmal vor, und zwar völlig selbstverständlich, wird auch erwartet und erhofft, ist also an sich nicht die Art von Wiederholung, die ich meine. Was ich meine, ist die Wiederholung einer fast identischen Szene in einem anderen Zusammenhang als Sex, wie die KI sie produziert.

Interessanterweise weiß die KI theoretisch genau, was sie tut, kann es aber trotzdem nicht verhindern. (Na ja, in der Beziehung ist sie fast menschlich. 😉)

Ich habe die KI einmal gefragt, warum das so ist. Warum treffen sich die beiden Protagonistinnen immer wieder am Strand, schauen übers Meer, bemerken die Wärme der Sonne, führen quasi immer wieder dieselbe Unterhaltung über ihre Beziehung mit immer wieder demselben Ergebnis wie beispielsweise: Sie wusste, dass sie ihr Leben ändern musste als letztem Satz?

Im nächsten Kapitel sollte sie also damit anfangen. Erwarte ich. Das tut sie aber nicht. Der letzte Satz des nächsten Kapitels lautet wieder: „Sie wusste, dass sie etwas an ihrem Leben ändern musste.“

Antwort der KI:

Dass die KI solche repetitiven Muster erzeugt – gerade in Liebesromanen –, liegt an der Art und Weise, wie sie Informationen verarbeitet und „vergisst“. Hier sind die drei Hauptgründe für dieses Phänomen:


1. Das „Goldfisch-Gedächtnis“ (Kontextfenster)

Jede KI hat ein begrenztes Kontextfenster. Das ist die Menge an Text, die sie gleichzeitig „im Kopf“ behalten kann.

  • Das Problem: Wenn ein Kapitel zu Ende ist, rutschen die Details des Anfangs langsam aus dem aktiven Speicher der KI.
  • Die Folge: Die KI erinnert sich zwar noch vage daran, dass „Strand“, „Sonne“ und „Selbstreflexion“ wichtige Motive waren, vergisst aber, dass diese Szene bereits abgeschlossen ist. Für die KI fühlt sich die Wiederholung wie eine „logische Fortsetzung“ des Stils an, nicht wie eine Redundanz.

2. Statistische Wahrscheinlichkeit statt echter Intention

Eine KI „weiß“ nicht, was eine tiefgreifende Lebensveränderung ist. Sie berechnet lediglich, welche Wörter am wahrscheinlichsten als Nächstes folgen.

  • In Liebesromanen ist die Phrase „Sie wusste, dass sie etwas ändern musste“ ein extrem häufiges Klischee (ein sogenannter „Troper“).
  • Da die KI auf Millionen von Texten trainiert wurde, erkennt sie diesen Satz als einen sehr „passenden“ Abschluss für eine nachdenkliche Szene. Da sie kein echtes Zeitgefühl oder Verständnis für Kausalität hat, bietet sie diesen Satz immer wieder an, sobald die Stimmung im Text „nachdenklich“ wird.

3. Der „Loop“ der poetischen Bilder

KIs neigen dazu, sich in Metaphern zu verlieben, die gut funktionieren.

  • Die Sonne und das weite Meer sind starke Symbole für menschliche Wärme, Überblick und Sehnsucht.
  • Wenn die KI einmal gelernt hat, dass die Interaktion zwischen den beiden Frauen an diesem Ort „funktioniert“ (also stilistisch konsistent ist), greift sie bei der Generierung des nächsten Kapitels wieder in dieselbe Werkzeugkiste. Sie versucht, den „Vibe“ zu halten, merkt dabei aber nicht, dass sie auf der Stelle tritt.

Warum die Protagonistin nicht handelt

Als Mensch erwarten wir eine Aktion-Reaktion-Kette. Wenn A passiert und erkannt wird, muss B (die Handlung) folgen.

Die KI hingegen arbeitet eher assoziativ. Sie sieht das Schreiben eines Kapitels oft als eine in sich geschlossene Einheit. Wenn die Autorin ihr nicht explizit befiehlt: „Nachdem sie das erkannt hat, kündigt sie im nächsten Kapitel ihren Job“, wird die KI die Protagonistin lieber wieder an den Strand schicken, weil das statistisch gesehen ein „sicherer“ Hafen für das Genre ist.

Um das zu vermeiden, muss die Autorin der KI nach so einer Szene eine strikte Anweisung geben wie diese: "Die Szene am Strand ist abgeschlossen. Es darf keine Wiederholung der Erkenntnis geben. In diesem Kapitel muss die Protagonistin folgende konkrete Handlung durchführen: [...]"

---

Als Mensch erwarten wir … Ist das nicht interessant? Die KI spricht von sich selbst als Menschen. Unter anderem, weil sie nachweislich viele Reddit-Artikel und andere Texte gelesen hat, in denen diese Phrase oft vorkommt. 

Auch hier sehen wir wieder, was die KI nicht weiß. Sie weiß weder, dass sie eine KI noch dass sie kein Mensch ist. Sie weiß eigentlich gar nichts. Sie wiederholt nur vorgegebene Muster, die statistisch betrachtet in den Texten, die sie gelesen hat, häufig vorkommen.

Und wenn wir den letzten Absatz lesen, sehen wir, dass die KI AutorInnen, die sie benutzen, sogar dabei helfen will, es besser zu machen, die KI so zu steuern, dass solche Wiederholungen eben nicht entstehen. Aber offenbar kennen solche AutorInnen die KI nicht und beschäftigen sich auch nicht damit, wie sie arbeitet.

Das ist – KI hin oder her – einfach Schlamperei. Als Autorin sollte man wissen, was für ein Buch man schreiben will. Wie das Buch aussehen soll. Wenn man meint, man kann das nicht allein und die KI fragt, sollte man sich wenigstens damit beschäftigen, was die KI kann und was sie nicht kann. Wie man sie benutzt.

Man stelle sich vor, man fragt eine Schreinerin, wozu ein Hammer da ist oder ein Hobel, und die Antwort ist ein verständnisloser Gesichtsausdruck und die Aussage: „Weiß ich nicht. Ich lasse die einfach machen.“

Lächerlich, nicht wahr? Keine Schreinerin würde so antworten. Sie weiß ganz genau, wozu ihre Werkzeuge da sind und was sie damit machen kann.

Aber wenn jemand ein Buch schreiben will, hat er das nicht nötig? Das kann nur ein Irrtum sein.

Die KI ist ein Werkzeug, das uns heutzutage zur Verfügung steht. Das ist einfach eine Tatsache, die man nicht wegleugnen kann. Wenn sie da ist, wird sie auch benutzt. Warum auch nicht?

Aber ein Buch einfach von der KI schreiben zu lassen, ohne zu wissen, was das Werkzeug tut, das man in Gang gesetzt hat, es noch nicht einmal zu überprüfen, nachdem es geschrieben ist – zum Beispiel auf solche Wiederholungen wie oben beschrieben –, das ist nicht nur Schlamperei, das ist Dummheit.

Wer so dumm sein will, bitte. Ich habe keinen Grund, irgendjemanden davon abzuhalten. Das geht mich nichts an.

Aber für mich wäre das nichts.

Ich nenne mich nicht nur Schriftstellerin, ich bin eine.

Und dafür brauche ich keine KI.