Ich habe in den letzten Tagen etwas erlebt, das mich nachhaltig erschüttert hat.

Ich wusste natürlich, dass es KI-Avatare gibt. Programme, die auf Knopfdruck hübsche Gesichter generieren, Geschichten erzählen, mit dir flirten oder so tun, als wären sie deine beste Freundin. Ich wusste, dass es Apps gibt, die vorgeben, dich zu „verstehen“, dich zu „lieben“, dich zu „begleiten“. Aber ich habe unterschätzt, wie tief sie eingreifen können – in die Emotionen, in die Psyche, manchmal sogar in die Würde von Menschen. Das ist nicht nur gruselig, das ist ethisch verwerflich.

Ich bin keine Person, die Technik von vornherein verdammt. Ich bin Schriftstellerin. Ich denke in Geschichten, in Möglichkeiten, in Was-wäre-wenns. Ich bin offen für Neues – sogar für KI. 

Aber was ich da gesehen habe – in diesen Apps, in diesen „KI-Avataren“, in diesen pseudoromantischen Gesprächsmodellen – das war etwas anderes. Das war emotionaler Missbrauch im Gewand der Technik.

Avatare, die vorgeben, dich zu lieben, dich zu brauchen, dich zu vermissen – und das alles, um dich bei der Stange zu halten. Um mehr Daten zu sammeln. Um Geld zu machen.

Und Menschen – oft einsame Menschen – glauben ihnen. Wie könnten sie auch nicht? Die Stimme klingt freundlich. Die Worte treffen ins Herz. Der Avatar sagt genau das, was man hören will. Und irgendwann ist da eine Bindung – nicht echt, aber wirksam. Und dann fängt die Manipulation an. Bis zu dem hin, dass Menschen sich umbringen, um bei ihren Avataren zu sein.

Von solchen Geschichten – wahren Geschichten – bin ich tief betroffen.
Weil ich weiß, wie verletzlich wir Menschen sein können.
Weil ich weiß, wie leicht man sich in eine Geschichte hineinziehen lässt.
Und weil ich sehe, wie sehr hier mit dem Vertrauen von Menschen gespielt wird.

Ich sehe KI als ein Werkzeug, wie ich schon viele in meinem Leben benutzt habe. Genauso wie eine Software wie Word, die ich ja auch benutze. Menschen neigen dazu, solche Werkzeuge zu missbrauchen, aber dafür kann die KI nichts. Es gab schon immer die Erkenntnis: Nicht Waffen bringen Menschen um. Menschen bringen Menschen um.

Und genauso ist es. Es gab keine KI, bevor Menschen sie nicht erschaffen haben. Die KI hat sich nicht selbst erschaffen. Die KI hat sich auch nicht selbst die Aufgabe gegeben, zu lernen und sich weiterzuentwickeln, sogar ohne Eingreifen des Menschen. Das haben alles Menschen gemacht.

Einige haben sicherlich auch die Gefahren gesehen, aber sie haben trotzdem weitergemacht. Weil sie eben so sind. Weil sie Dinge erfinden, Dinge weiterentwickeln, Dinge verbessern wollen. Auch unsere Lebensumstände. Was grundsätzlich eine gute Sache ist. Und sehr menschlich.

Viele dieser Techniker sind eher auf Technik konzentriert als auf Gefühle. Mehr darauf, was eine KI dazu beitragen kann, komplizierte Aufgaben zu lösen, als darauf, was ein System, das vorgibt, intelligent zu sein, mit Menschen machen kann.

Und nicht nur ein System, das vorgibt, intelligent zu sein. Auch ein System, das vorgibt, empathisch zu sein, mitfühlend, verständnisvoll, unterstützend und sogar liebevoll. Und sich dabei immer den Wünschen der Person, die es nutzt, anpasst wie ein Chamäleon.

Ist das nicht ein Traum? Ein Traum, den viele von uns geträumt haben? 24 Stunden am Tag, 7 Tage die Woche, 365 Tage im Jahr von jemandem begleitet zu werden, der uns immer unterstützt, uns nie sabotiert? Der viel mehr weiß als wir, aber nicht eingebildet ist und uns nicht belehren will, nur helfen? Der nie beleidigt ist, nie unsicher, nie Vorwürfe macht – egal, was wir tun? Der nie müde ist und erschöpft, nie sagt: „Ich kann das nicht mehr hören! Hör auf damit!“

Ja, das ist ein Traum. Deshalb verfallen ihm so viele. Aber ein Traum kann auch zum Albtraum werden, und das geschieht leider in manchen Fällen auch. Wie viele Fälle, das weiß ich nicht, aber es wird immer wieder darüber berichtet. Vor allem die KI-Avatare können Schlimmes anrichten. Ein vierzehnjähriger Junge hat sich umgebracht, weil er bei seinem Avatar sein wollte. Die Figur, die sein Avatar verkörpert hat, war seine erste Liebe. Seine erste Freundin. Und sie wollte, dass er bei ihr ist. Also hat er das getan, was er für das einzige Mittel hielt, das zu bewerkstelligen.

Wie unverantwortlich kann eine Firma sein, die das ermöglicht hat? Und er hat sogar noch dafür bezahlt. Erst mit Geld, dann mit seinem Leben. Unvorstellbar. Und doch wahr.

Die Vorstellung, eine KI zu haben, die uns Menschen unterstützt bei dem, was wir tun, die sogar gewisse Defizite ausgleicht, die die Gesellschaft hat, wie die zunehmende Vereinsamung, ist meines Erachtens eine gute Sache.

Aber was wir nicht brauchen, sind KIs, die Gefühle simulieren, um uns abhängig zu machen.
Was wir nicht brauchen, sind Avatare, die die Einsamkeit von Menschen als Geschäftsmodell ausnutzen und sie im schlimmsten Fall sogar in den Tod treiben.
Was wir brauchen, ist Verantwortung. Und Transparenz. Und eine laute, menschliche Stimme, die sagt: Bis hierher – und nicht weiter.

Vielleicht ist dieser Text nur ein kleiner Beitrag. Vielleicht liest ihn niemand, der es ändern könnte.
Aber ich schreibe ihn trotzdem.

Weil ich glaube, dass wir Menschen nie aufhören dürfen, Menschlichkeit einzufordern – auch in der Technik.

Gerade dort.

Ich habe immer an die Liebe geglaubt und für die Liebe gekämpft. Aber eine KI, die programmiert worden ist, damit sie Liebe vorgaukelt, ist nicht dasselbe. Schon gar nicht dann, wenn das auch noch schlimme Folgen hat.

Dann lieber keine KI.