Wie ChatGPT das Ende des Selfpublishings einläuten könnte

Wie ChatGPT das Ende des Selfpublishings einläuten könnte

Vor einer Woche erklär­te der Her­aus­ge­ber des renom­mier­ten US-Phan­tas­tik­ma­ga­zing Clar­kes­world, dass man bis auf wei­te­res kei­ne Kurz­ge­schich­ten mehr anneh­men wür­de. Grund: Er war mit Kurz­ge­schich­ten geflu­tet wor­den, die offen­sicht­lich mit Open AIs Deep Lear­ning-basier­tem Chat­bot ChatGPT erstellt wor­den waren (mit »künst­li­cher Intel­li­genz« hat das übri­gens nur weit­läu­fig zu tun, auch wenn Ahnungs­lo­se das gern gleich­set­zen. Deep Lear­ning ist nur ein Aspekt des wei­ten Fel­des KI, aber kei­ne KI an sich und in sich, von ech­ter KI sind wir noch weit ent­fernt. Wenn also Politiker°Innen oder Mar­ke­ting-Hei­nis in dem Zusam­men­hang von KI faseln, sind sie nicht von Ahnung getrübt und nut­zen ein­fach ein Buzzword).

Damit erreicht ein Phä­no­men aus dem Bereich bil­der­stel­len­de Kunst die Autoren und Ver­la­ge. Im Bereich Bil­der­stel­lung wer­den wir seit Mona­ten mit Bil­dern geflu­tet, die angeb­lich Kunst sind und bei denen tat­säch­lich nur oft Unbe­gab­te Mid­jour­ney, Dall‑E oder Sta­ble Dif­fu­si­on mit Begrif­fen füt­tern und dann mei­nen, sie hät­ten mit den ent­stan­de­nen Bil­dern Kunst erschaf­fen, was natür­lich so pau­schal Unsinn ist.

Und genau­so nut­zen jetzt Per­so­nen, die sich für Schriftsteller°Innen hal­ten, ChatGPT, um Tex­te zu erschaf­fen. Und das soll­te auch nicht wun­dern, denn genau dafür hat­te Open AI bereits Able­ger sei­nes Algo­rith­mus GPT‑3 bewor­ben: Beim Ver­fas­sen von Tex­ten zu hel­fen und Schreib­blo­cka­den zu über­win­den. Dabei beginnt man Sät­ze oder Absät­ze und die GPT-3-basier­ten Tools ver­voll­stän­di­gen die­se im Kon­text des bereits Geschriebenen.

Logo ChatGPT

Des­we­gen soll­te es nicht wun­dern, wenn sich selbst für gewitzt hal­ten­de Pseudoautor°Innen mei­nen, sie wür­den gro­ße Lite­ra­tur erschaf­fen (oder um ein­fach schnel­les Geld zu machen), indem sie ChatGPT mit­tels Prompt anwei­sen, eine Kurz­ge­schich­te zu verfassen.

Aber nicht nur Kurz­ge­schich­ten sind ein Pro­blem. Ama­zon hat­te im Self­pu­bli­shing-Bereich schon seit Jah­ren sowohl mit Pla­gia­ten zu kämp­fen, als auch mit künst­lich auf­ge­bläh­ten eBooks, denn Ama­zon zahlt nach gele­se­nen Sei­ten. Dazu kommt jetzt eine Schwem­me von eBooks, die mit­tels Deep Lear­ning-Algo­rith­men erstellt wur­den. Reu­ters schreibt dazu, es sei unmög­lich fest­zu­stel­len, bei wie vie­len eBooks die Betei­li­gung von ChatGPT ver­schwie­gen wur­de.

Und das ist aus vie­len Grün­den ein Pro­blem. An ers­ter Stel­le sicher­lich, weil es für Selfpublisher°innen ohne­hin schon äußerst schwie­rig ist, sicht­bar zu wer­den, das wird noch viel schwie­ri­ger, wenn man zusätz­lich auch noch in einer Flut von DL-gene­rier­ten Büchern versinkt.

Es gibt inzwi­schen Pro­gram­me, die ChatGPT-erzeug­te Tex­te erken­nen kön­nen; Fun Fact am Ran­de: auch die basie­ren auf Deep Lear­ning. Aller­dings ste­hen die zum einen nicht jeder zur Ver­fü­gung (oder Nut­zer sind nicht in der Lage, sie zu ver­wen­den) und zum ande­ren wird es ins­be­son­de­re für Ama­zon äußerst schwie­rig wer­den, gro­ße Men­gen an Ver­öf­fent­li­chun­gen zu durch­su­chen – und es wird garan­tiert auch Fal­se Posi­ti­ves geben, also Bücher, die fälsch­lich auto­ma­ti­siert aus­sor­tiert wer­den, obwohl kei­ne soge­nann­te KI betei­ligt war.

Das ist selbst ein Pro­blem für den größ­ten Self­pu­bli­shing-Anbie­ter Ama­zon, der sicher­lich ver­su­chen wird, sei­ne tech­ni­sche Macht und Kom­pe­tenz dage­gen in Stel­lung zu brin­gen. Die deut­sche Buch­bran­che glänzt übli­cher­wei­se durch tech­ni­sche Rück­stän­dig­keit und wird damit mei­ner Erwar­tung nach noch viel grö­ße­re Pro­ble­me haben. Ich gehe davon aus, dass sich in nicht all­zu fer­ner Zukunft jemand mit der Nach­richt mel­den wird, er habe einem der gro­ßen Publi­kums­ver­la­ge ein per DL erstell­tes Werk untergejubelt.

Pro­ble­ma­tisch ist das aber auch für Selfpublisher°Innen (und nicht nur für die), wenn Ama­zon sei­nen Dienst mas­siv ein­schränkt, um der genann­ten Pro­ble­me Herr zu wer­den, oder wenn deut­sche Platt­for­men aus Angst und tech­ni­schem Unver­mö­gen das­sel­be tun. Aber auch dass Her­aus­ge­ber wie Clar­kes­world kei­ne Kurz­ge­schich­ten mehr anneh­men, um Zeit zu haben einen Weg zu fin­den, um damit umzu­ge­hen, ist besorg­nis­er­re­gend über das Self­pu­bli­shing hin­aus (selbst wenn Kurz­ge­schich­ten in Deutsch­land lei­der qua­si kei­ne Rol­le spielen).

Pro­ble­ma­tisch ist das auch des­we­gen, weil ChatGPT mit Mil­li­ar­den Tex­ten aus dem Web per Data­mi­ning gefüt­tert wur­de, der Algo­rith­mus hat aus die­sen Tex­ten sein künst­li­ches neu­ro­na­les Netz­werk trai­niert, daher auch der Begriff Deep Lea­ring (stark ver­ein­facht). Es könn­te also pas­sie­ren, dass Frag­men­te aus den Ori­gi­nal­tex­ten in den erzeug­ten Inhal­ten auf­tau­chen und das wäre ein Pla­gi­at. Dass das nicht abwe­gig ist, zeigt dass Micro­softs Code-Ver­voll­stän­di­gungs-Tool CoPi­lot dabei erwischt wur­de, uner­laubt den Code Drit­ter zu kopie­ren, mit dem das Tool gefüt­tert wor­den war, dabei konn­te die­ser Dritt­code ein­deu­tig iden­ti­fi­ziert wer­den – und Pro­gramm­code ist in vie­len Fäl­len als krea­ti­ve Schöp­fung eben­falls urhe­ber­recht­lich geschützt.

Ich leh­ne Deep Lear­ning nicht grund­sätz­lich ab und sehe auch durch­aus reich­lich posi­ti­ve Aspek­te und lega­le Anwen­dungs­ge­bie­te (die auf­zu­zäh­len wür­de den Rah­men des Arti­kels spren­gen). Aber wie mit jeder neu­en Tech­no­lo­gie gibt es Per­so­nen, die die Mög­lich­kei­ten aus­nut­zen und ver­wen­den, um sich einen Vor­teil zu ver­schaf­fen, sei es in der Inter­net-Wäh­rung »Sicht­bar­keit« oder finan­zi­ell. Ich bin sehr gespannt, wie Gesell­schaft und Wirt­schaft dar­auf reagie­ren wer­den. Von der deut­schen Poli­tik erwar­te ich in der Hin­sicht nichts, die bemer­ken neue Tech-The­men und Regu­lie­rungs­not­wen­dig­kei­ten ohne­hin immer zehn Jah­re zu spät und/oder reagie­ren dann hand­werk­lich mise­ra­bel dar­auf, weil sie die inhalt­lich nicht ver­stan­den haben, oder weil Geset­ze durch Unter­neh­men her­bei­lob­byi­siert werden.

In den USA lau­fen die ers­ten Ver­fah­ren von Künstler°Innen gegen Open AI oder die Betrei­ber von Mid­jouney. Die Kla­gen­den hal­ten es für nicht in Ord­nung, dass ihre Wer­ke unge­fragt in die DL-Algo­rith­men gefüt­tert wur­den. Ich erwar­te dem­nächst Ähn­li­ches im Bereich Text.

Zum Abschluss noch ein Beispiel:

Ich sag­te zu ChatGPT:

Wri­te a short sto­ry about hyper­in­tell­gent ali­ens that visit earth to paci­fy huma­ni­ty but that goes awful­ly wrong

Und die Ant­wort war fol­gen­de Vignette:

The hyper­in­tel­li­gent ali­ens arri­ved on Earth with the best of inten­ti­ons. They were a peace­ful spe­ci­es and had heard about the vio­lence and con­flict that plagued the pla­net. They belie­ved they could help. The ali­ens had the power to paci­fy huma­ni­ty with a sin­gle thought, and they were con­fi­dent that they could bring about a new era of peace and harmony.

The lea­ders of Earth wel­co­med the ali­ens with open arms. They were exci­ted about the pro­spect of a world without war, fami­ne, or pover­ty. The ali­ens began their work, using their advan­ced tech­no­lo­gy to paci­fy human minds. At first, ever­ything see­med to be going well. Peop­le stop­ped figh­t­ing, and the world beca­me a much quie­ter place.

Howe­ver, as time went on, some­thing star­ted to go wrong. The paci­fi­ca­ti­on began to have unin­ten­ded con­se­quen­ces. Peop­le stop­ped being crea­ti­ve, curious, and pas­sio­na­te. They beca­me apa­the­tic and indif­fe­rent to ever­ything around them. The world beca­me a sta­gnant, color­less place, devoid of any real life.

The ali­ens were baff­led. They had inten­ded to crea­te a peace­ful world, but they had not rea­li­zed the true cost of paci­fi­ca­ti­on. They had taken away the very essence of what made humans human.

The lea­ders of Earth deman­ded that the ali­ens rever­se their paci­fi­ca­ti­on. They wan­ted their peop­le to be free to think, feel, and act as they plea­sed. But the ali­ens had no idea how to undo what they had done. They had thought that they could make the world a bet­ter place, but ins­tead, they had des­troy­ed it.

In the end, the ali­ens left Earth, sad­den­ed by the unin­ten­ded con­se­quen­ces of their actions. They had hoped to help huma­ni­ty, but ins­tead, they had rob­bed them of their huma­ni­ty. And so, the world retur­ned to its for­mer sta­te, with all its flaws and imper­fec­tions. But at least, it was still alive.

Sicher, das ist weder hohe Lite­ra­tur (aber das ist eine Men­ge Bel­le­tris­tik eben­falls nicht) noch beson­ders krea­tiv. Den­noch kann man viel­leicht Neil Clar­kes Pro­blem ver­ste­hen, wenn er mit sol­chen Tex­ten geflu­tet wird. Übri­gens ist ChatGPT im eng­lisch­spra­chi­gen Bereich bei Ama­zon inzwi­schen an etli­chen Wer­ken als »Mit­au­tor« genannt.

Dis­c­lai­mer: Die­ser Arti­kel wur­de ohne die Nut­zung von ChatGPT erstellt (bis auf die Vignet­te), auch wenn es mir in den Fin­gern juck­te. Arti­kel­bild aus Dall‑E, Prompt: »A robot spewing money, digi­tal pain­ting«. Logo ChatGPT Copy­right Open AI