»Künstliche Intelligenz« und vietnamesische Tierärzte

»Künstliche Intelligenz« und vietnamesische Tierärzte

»Künst­li­che Intel­li­genz« ali­as »KI« ist gera­de eins der Auf­re­ger­the­men schlecht­hin und es äußern sich ger­ne Per­so­nen dazu, die nicht den gerings­ten Schim­mer über das The­ma haben, gera­de aus dem Bereich Poli­tik lese ich immer wie­der Stil­blü­ten zwi­schen Hohn­la­chen und Fremdschämen.

Die­ses Bei­spiel doku­men­tiert gera­de­zu per­fekt die Pro­ble­me mit Deep Lear­ning-basier­ten Tech­ni­ken, ins­be­son­de­re wenn man sie unüber­wacht und ohne redak­tio­nel­le Prü­fung einsetzt.

Es han­delt sich um die deut­sche Über­set­zung des eng­li­schen Ori­gi­nal­tex­tes zur Fern­seh­se­rie THE A‑TEAM beim Ama­zons IMDb.

Die Über­set­zung ist wort­wört­lich kor­rekt, inhalt­lich aber erstaun­lich falsch. Auch vom Wort­sinn her liegt der DL-Algo­rith­mus dane­ben, denn nicht die Unschul­di­gen wer­den vom Mili­tär ver­folgt, son­dern das A‑Team.

Das doku­men­tiert aber eben auch die Pro­ble­me mit »KI«-generierten Tex­ten: Sie kön­nen voll­stän­dig glaub­wür­dig aus­se­hen, sind aber inhalt­li­cher Bull­shit. Das lässt sich eins zu eins auf ande­re Berei­che von KI als Über­set­zung oder Text­ge­ne­rie­rung über­tra­gen. Redak­teu­re, die mei­nen, das könn­te ihnen die Arbeit pri­ma erleich­tern, könn­ten irgend­wann ein übles Erwa­chen erle­ben, wenn ihnen ein DL-erzeug­ter Bull­shit-Arti­kel durch­ge­rutscht sein wird und die Repu­ta­ti­on ihres Medi­ums zerstört.

Ich hal­te »KI« in vie­len Berei­chen für ein über­aus hilf­rei­ches und nütz­li­ches Tool (ich möch­te »con­tent awa­re fill in Pho­to­shop eben­so wenig mis­sen, wie mei­ne DL-basier­ten Ups­ca­ler oder Denoi­ser), aber aus dem Traum der Gold­grä­ber­stim­mung, und dem »spart euch viel Geld für Tex­ter« die der­zeit von vie­len bekoks­ten Marketing-»Spezialisten« ver­brei­tet wird, kann schnell ein Alp­traum werden.

Ange­sichts der rasan­ten Geschwin­dig­keit mit denen sich Deep Lear­ning-basier­te Appli­ka­tio­nen gera­de wei­ter ent­wi­ckeln, könn­te mei­ne Aus­sa­ge in drei Mona­ten aber bereits hin­fäl­lig sein. Die Tech­nik ent­wi­ckelt sich der­ma­ßen rasant, dass unse­re übli­cher­wei­se in Tech-Fra­gen völ­lig ver­schnarch­ten Poli­ti­ker sich schwer tun wer­den, das zu regu­lie­ren und im Sin­ne der Bevöl­ke­rung einzuhegen.

Übri­gens: der Über­set­zer DeepL, eben­falls Deep Lea­ring-basiert, wie der Name bereits andeu­tet, über­setzt den Satz per­fekt. Aus

Four Viet­nam vets, framed for a crime they did­n’t com­mit, help the inno­cent while on the run from the military.

wird

Vier Viet­nam-Vete­ra­nen, die eines Ver­bre­chens beschul­digt wer­den, das sie nicht began­gen haben, hel­fen Unschul­di­gen, wäh­rend sie auf der Flucht vor dem Mili­tär sind.

Offen­bar sind Ama­zons Über­set­zungs­al­go­rith­men verbesserungswürdig.

Dank an Thors­ten Krü­ger fürs fin­den des urlus­ti­gen Patzers bei IMDb.

Paizo positioniert sich gegen Deep Learning-basierte Inhalte

Paizo positioniert sich gegen Deep Learning-basierte Inhalte

Pai­zo, der Her­aus­ge­ber von Pen & Paper-Rol­len­spie­len wie PATHFINDER oder STARFINDER posi­tio­niert sich in einem aktu­el­len State­ment ein­deu­tig gegen »AI«-generierte Inhal­te, sei­en es Bil­der oder Tex­te. Das gilt auch für Fanart.

Das bezieht sich ins­be­son­de­re auch auf ihre Online­platt­for­men Path­fin­der Infi­ni­te und Star­fin­der Infi­ni­te, auf denen es Fans mög­lich ist, Con­tent basie­rend auf Pai­zos IPs zu ver­kau­fen. Pai­zo schreibt dazu:

Sin­ce we laun­ched the com­pa­ny in 2002, Pai­zo has made its repu­ta­ti­on with the assi­s­tance of count­less tra­di­tio­nal artists and wri­ters, who are just as inte­gral to the suc­cess of our games as our in-house edi­tors, art direc­tors, desi­gners, and deve­lo­pers. The ethi­cal and legal issu­es sur­roun­ding »AI art« and wri­ting prompt pro­grams — and the serious thre­at they pose to the live­li­hoods of part­ners who have hel­ped us get to whe­re we are today as a com­pa­ny — demand that we take a firm posi­ti­on against the use of this tech­no­lo­gy in Pai­zo products.

Seit der Grün­dung des Unter­neh­mens im Jahr 2002 hat sich Pai­zo mit Hil­fe unzäh­li­ger tra­di­tio­nel­ler Künst­ler und Autoren einen Namen gemacht, die zum Erfolg unse­rer Spie­le eben­so bei­tra­gen wie unse­re inter­nen Redak­teu­re, Art Direc­tors, Desi­gner und Ent­wick­ler. Die ethi­schen und recht­li­chen Fra­gen im Zusam­men­hang mit »KI-Kunst« und Text­ge­ne­rie­rungs­pro­gram­men – und die ernst­haf­te Bedro­hung, die sie für den Lebens­un­ter­halt unse­rer Part­ner dar­stel­len, die uns dabei gehol­fen haben, dort­hin zu gelan­gen, wo wir heu­te als Unter­neh­men ste­hen – erfor­dern, dass wir eine kla­re Posi­ti­on gegen die Ver­wen­dung die­ser Tech­no­lo­gien in Pai­zo-Pro­duk­ten beziehen.

Pro­ble­ma­tisch dürf­te in die­sem Zusam­men­hang aller­dings wer­den, dass es im Moment nahe­zu unmög­lich sein dürf­te, Tex­te oder Bil­der die mit­tels Deep Lear­ning gene­riert wur­den, ver­läss­lich zu iden­ti­fi­zie­ren (wobei aller­dings auch hier­für Algo­rith­men bereits auf dem Weg sind).

Es wird jetzt span­nend sein zu sehen, wie lan­ge sie die­sen Stand­punkt auf­recht­erhal­ten wer­den – oder können.

Bild Copy­right Paizo

Wie ChatGPT das Ende des Selfpublishings einläuten könnte

Wie ChatGPT das Ende des Selfpublishings einläuten könnte

Vor einer Woche erklär­te der Her­aus­ge­ber des renom­mier­ten US-Phan­tas­tik­ma­ga­zing Clar­kes­world, dass man bis auf wei­te­res kei­ne Kurz­ge­schich­ten mehr anneh­men wür­de. Grund: Er war mit Kurz­ge­schich­ten geflu­tet wor­den, die offen­sicht­lich mit Open AIs Deep Lear­ning-basier­tem Chat­bot ChatGPT erstellt wor­den waren (mit »künst­li­cher Intel­li­genz« hat das übri­gens nur weit­läu­fig zu tun, auch wenn Ahnungs­lo­se das gern gleich­set­zen. Deep Lear­ning ist nur ein Aspekt des wei­ten Fel­des KI, aber kei­ne KI an sich und in sich, von ech­ter KI sind wir noch weit ent­fernt. Wenn also Politiker°Innen oder Mar­ke­ting-Hei­nis in dem Zusam­men­hang von KI faseln, sind sie nicht von Ahnung getrübt und nut­zen ein­fach ein Buzzword).

Damit erreicht ein Phä­no­men aus dem Bereich bil­der­stel­len­de Kunst die Autoren und Ver­la­ge. Im Bereich Bil­der­stel­lung wer­den wir seit Mona­ten mit Bil­dern geflu­tet, die angeb­lich Kunst sind und bei denen tat­säch­lich nur oft Unbe­gab­te Mid­jour­ney, Dall‑E oder Sta­ble Dif­fu­si­on mit Begrif­fen füt­tern und dann mei­nen, sie hät­ten mit den ent­stan­de­nen Bil­dern Kunst erschaf­fen, was natür­lich so pau­schal Unsinn ist.

Und genau­so nut­zen jetzt Per­so­nen, die sich für Schriftsteller°Innen hal­ten, ChatGPT, um Tex­te zu erschaf­fen. Und das soll­te auch nicht wun­dern, denn genau dafür hat­te Open AI bereits Able­ger sei­nes Algo­rith­mus GPT‑3 bewor­ben: Beim Ver­fas­sen von Tex­ten zu hel­fen und Schreib­blo­cka­den zu über­win­den. Dabei beginnt man Sät­ze oder Absät­ze und die GPT-3-basier­ten Tools ver­voll­stän­di­gen die­se im Kon­text des bereits Geschriebenen.

Logo ChatGPT

Des­we­gen soll­te es nicht wun­dern, wenn sich selbst für gewitzt hal­ten­de Pseudoautor°Innen mei­nen, sie wür­den gro­ße Lite­ra­tur erschaf­fen (oder um ein­fach schnel­les Geld zu machen), indem sie ChatGPT mit­tels Prompt anwei­sen, eine Kurz­ge­schich­te zu verfassen.

Aber nicht nur Kurz­ge­schich­ten sind ein Pro­blem. Ama­zon hat­te im Self­pu­bli­shing-Bereich schon seit Jah­ren sowohl mit Pla­gia­ten zu kämp­fen, als auch mit künst­lich auf­ge­bläh­ten eBooks, denn Ama­zon zahlt nach gele­se­nen Sei­ten. Dazu kommt jetzt eine Schwem­me von eBooks, die mit­tels Deep Lear­ning-Algo­rith­men erstellt wur­den. Reu­ters schreibt dazu, es sei unmög­lich fest­zu­stel­len, bei wie vie­len eBooks die Betei­li­gung von ChatGPT ver­schwie­gen wur­de.

Und das ist aus vie­len Grün­den ein Pro­blem. An ers­ter Stel­le sicher­lich, weil es für Selfpublisher°innen ohne­hin schon äußerst schwie­rig ist, sicht­bar zu wer­den, das wird noch viel schwie­ri­ger, wenn man zusätz­lich auch noch in einer Flut von DL-gene­rier­ten Büchern versinkt.

Es gibt inzwi­schen Pro­gram­me, die ChatGPT-erzeug­te Tex­te erken­nen kön­nen; Fun Fact am Ran­de: auch die basie­ren auf Deep Lear­ning. Aller­dings ste­hen die zum einen nicht jeder zur Ver­fü­gung (oder Nut­zer sind nicht in der Lage, sie zu ver­wen­den) und zum ande­ren wird es ins­be­son­de­re für Ama­zon äußerst schwie­rig wer­den, gro­ße Men­gen an Ver­öf­fent­li­chun­gen zu durch­su­chen – und es wird garan­tiert auch Fal­se Posi­ti­ves geben, also Bücher, die fälsch­lich auto­ma­ti­siert aus­sor­tiert wer­den, obwohl kei­ne soge­nann­te KI betei­ligt war.

Das ist selbst ein Pro­blem für den größ­ten Self­pu­bli­shing-Anbie­ter Ama­zon, der sicher­lich ver­su­chen wird, sei­ne tech­ni­sche Macht und Kom­pe­tenz dage­gen in Stel­lung zu brin­gen. Die deut­sche Buch­bran­che glänzt übli­cher­wei­se durch tech­ni­sche Rück­stän­dig­keit und wird damit mei­ner Erwar­tung nach noch viel grö­ße­re Pro­ble­me haben. Ich gehe davon aus, dass sich in nicht all­zu fer­ner Zukunft jemand mit der Nach­richt mel­den wird, er habe einem der gro­ßen Publi­kums­ver­la­ge ein per DL erstell­tes Werk untergejubelt.

Pro­ble­ma­tisch ist das aber auch für Selfpublisher°Innen (und nicht nur für die), wenn Ama­zon sei­nen Dienst mas­siv ein­schränkt, um der genann­ten Pro­ble­me Herr zu wer­den, oder wenn deut­sche Platt­for­men aus Angst und tech­ni­schem Unver­mö­gen das­sel­be tun. Aber auch dass Her­aus­ge­ber wie Clar­kes­world kei­ne Kurz­ge­schich­ten mehr anneh­men, um Zeit zu haben einen Weg zu fin­den, um damit umzu­ge­hen, ist besorg­nis­er­re­gend über das Self­pu­bli­shing hin­aus (selbst wenn Kurz­ge­schich­ten in Deutsch­land lei­der qua­si kei­ne Rol­le spielen).

Pro­ble­ma­tisch ist das auch des­we­gen, weil ChatGPT mit Mil­li­ar­den Tex­ten aus dem Web per Data­mi­ning gefüt­tert wur­de, der Algo­rith­mus hat aus die­sen Tex­ten sein künst­li­ches neu­ro­na­les Netz­werk trai­niert, daher auch der Begriff Deep Lea­ring (stark ver­ein­facht). Es könn­te also pas­sie­ren, dass Frag­men­te aus den Ori­gi­nal­tex­ten in den erzeug­ten Inhal­ten auf­tau­chen und das wäre ein Pla­gi­at. Dass das nicht abwe­gig ist, zeigt dass Micro­softs Code-Ver­voll­stän­di­gungs-Tool CoPi­lot dabei erwischt wur­de, uner­laubt den Code Drit­ter zu kopie­ren, mit dem das Tool gefüt­tert wor­den war, dabei konn­te die­ser Dritt­code ein­deu­tig iden­ti­fi­ziert wer­den – und Pro­gramm­code ist in vie­len Fäl­len als krea­ti­ve Schöp­fung eben­falls urhe­ber­recht­lich geschützt.

Ich leh­ne Deep Lear­ning nicht grund­sätz­lich ab und sehe auch durch­aus reich­lich posi­ti­ve Aspek­te und lega­le Anwen­dungs­ge­bie­te (die auf­zu­zäh­len wür­de den Rah­men des Arti­kels spren­gen). Aber wie mit jeder neu­en Tech­no­lo­gie gibt es Per­so­nen, die die Mög­lich­kei­ten aus­nut­zen und ver­wen­den, um sich einen Vor­teil zu ver­schaf­fen, sei es in der Inter­net-Wäh­rung »Sicht­bar­keit« oder finan­zi­ell. Ich bin sehr gespannt, wie Gesell­schaft und Wirt­schaft dar­auf reagie­ren wer­den. Von der deut­schen Poli­tik erwar­te ich in der Hin­sicht nichts, die bemer­ken neue Tech-The­men und Regu­lie­rungs­not­wen­dig­kei­ten ohne­hin immer zehn Jah­re zu spät und/oder reagie­ren dann hand­werk­lich mise­ra­bel dar­auf, weil sie die inhalt­lich nicht ver­stan­den haben, oder weil Geset­ze durch Unter­neh­men her­bei­lob­byi­siert werden.

In den USA lau­fen die ers­ten Ver­fah­ren von Künstler°Innen gegen Open AI oder die Betrei­ber von Mid­jouney. Die Kla­gen­den hal­ten es für nicht in Ord­nung, dass ihre Wer­ke unge­fragt in die DL-Algo­rith­men gefüt­tert wur­den. Ich erwar­te dem­nächst Ähn­li­ches im Bereich Text.

Zum Abschluss noch ein Beispiel:

Ich sag­te zu ChatGPT:

Wri­te a short sto­ry about hyper­in­tell­gent ali­ens that visit earth to paci­fy huma­ni­ty but that goes awful­ly wrong

Und die Ant­wort war fol­gen­de Vignette:

The hyper­in­tel­li­gent ali­ens arri­ved on Earth with the best of inten­ti­ons. They were a peace­ful spe­ci­es and had heard about the vio­lence and con­flict that plagued the pla­net. They belie­ved they could help. The ali­ens had the power to paci­fy huma­ni­ty with a sin­gle thought, and they were con­fi­dent that they could bring about a new era of peace and harmony.

The lea­ders of Earth wel­co­med the ali­ens with open arms. They were exci­ted about the pro­spect of a world without war, fami­ne, or pover­ty. The ali­ens began their work, using their advan­ced tech­no­lo­gy to paci­fy human minds. At first, ever­ything see­med to be going well. Peop­le stop­ped figh­t­ing, and the world beca­me a much quie­ter place.

Howe­ver, as time went on, some­thing star­ted to go wrong. The paci­fi­ca­ti­on began to have unin­ten­ded con­se­quen­ces. Peop­le stop­ped being crea­ti­ve, curious, and pas­sio­na­te. They beca­me apa­the­tic and indif­fe­rent to ever­ything around them. The world beca­me a sta­gnant, color­less place, devoid of any real life.

The ali­ens were baff­led. They had inten­ded to crea­te a peace­ful world, but they had not rea­li­zed the true cost of paci­fi­ca­ti­on. They had taken away the very essence of what made humans human.

The lea­ders of Earth deman­ded that the ali­ens rever­se their paci­fi­ca­ti­on. They wan­ted their peop­le to be free to think, feel, and act as they plea­sed. But the ali­ens had no idea how to undo what they had done. They had thought that they could make the world a bet­ter place, but ins­tead, they had des­troy­ed it.

In the end, the ali­ens left Earth, sad­den­ed by the unin­ten­ded con­se­quen­ces of their actions. They had hoped to help huma­ni­ty, but ins­tead, they had rob­bed them of their huma­ni­ty. And so, the world retur­ned to its for­mer sta­te, with all its flaws and imper­fec­tions. But at least, it was still alive.

Sicher, das ist weder hohe Lite­ra­tur (aber das ist eine Men­ge Bel­le­tris­tik eben­falls nicht) noch beson­ders krea­tiv. Den­noch kann man viel­leicht Neil Clar­kes Pro­blem ver­ste­hen, wenn er mit sol­chen Tex­ten geflu­tet wird. Übri­gens ist ChatGPT im eng­lisch­spra­chi­gen Bereich bei Ama­zon inzwi­schen an etli­chen Wer­ken als »Mit­au­tor« genannt.

Dis­c­lai­mer: Die­ser Arti­kel wur­de ohne die Nut­zung von ChatGPT erstellt (bis auf die Vignet­te), auch wenn es mir in den Fin­gern juck­te. Arti­kel­bild aus Dall‑E, Prompt: »A robot spewing money, digi­tal pain­ting«. Logo ChatGPT Copy­right Open AI

Trailer: »neXt«

Trailer: »neXt«

Nor­ma­ler­wei­se wer­den Titel auf Phan­ta­News in Groß­buch­sta­ben geschrie­ben. Im Fall der ange­kün­dig­ten Fox-Serie »neXt« wäre das auf­grund der Schreib­wei­se aller­dings kontraproduktiv.

Bei neXt geht es um den Tech-Magna­ten Paul Leblanc, gespielt von John Slat­te­ry (AVENGERS: ENDGAME), der sich bemüht, die von ihm ent­wi­ckel­te und wild­ge­wor­de­ne künst­li­che Intel­li­genz unter Kon­trol­le zu bekom­men. Somit ein hoch­ak­tu­el­les The­ma, auch wenn wir von ech­ten KIs noch mei­len­weit ent­fernt sind.

Schöp­fer und Showrun­ner der Serie ist Man­ny Coto (STAR TREK: ENTERPRISE, DEXTER), neben Slat­te­ry spie­len Fer­nan­da And­ra­deJana Beno­itNevin Burk­hol­derEliza­beth Cap­puc­ci­noJohn Cas­si­ni und es gibt ein Wie­der­se­hen mit John Bil­lings­ley aus ENTERPRISE.

Einen kon­kre­ten Start­ter­min für neXt gibt es noch nicht, die Show wur­de aber für die US-»Midseason« ange­kün­digt, das wäre ver­mut­lich im Janu­ar oder Febru­ar 2020.

https://www.youtube.com/watch?v=rRAoNVJcgms