Deep Learning

Frankfurter Buchmesse 2023: Eine Bühne für Kontroversen und Diskurse

Ich hat­te kei­nen Bock, was zur Frank­fur­ter Buch­mes­se zu schrei­ben und habe das ChatGPT machen las­sen … Man kann deut­lich sehen, wel­che Aus­wir­kun­gen Deep Lear­ning auf die inhalts­lo­sen Bull­shit-Arti­kel haben wird, wie man sie aus den letz­ten Jah­ren von diver­sen Print­me­di­en kennt, die schnell belang­lo­se Tex­te zusam­men­klop­pen, um wel­che zu haben.

Im Her­zen Euro­pas, wo lite­ra­ri­sche Tra­di­tio­nen und moder­ne Erzäh­lun­gen auf­ein­an­der­tref­fen, ist die Frank­fur­ter Buch­mes­se seit lan­gem ein Leucht­turm für Biblio­phi­le und Wort­schmie­de. Auch 2023 ent­täusch­te die­se ehr­wür­di­ge Insti­tu­ti­on nicht und bot eine rei­che Palet­te an Kon­tro­ver­sen, Ideen und Dia­lo­gen.

Die Frank­fur­ter Buch­mes­se ist die größ­te Buch­mes­se der Welt, auf der Autoren, Ver­le­ger und Buch­lieb­ha­ber aus allen Tei­len der Welt zusam­men­kom­men, um das geschrie­be­ne Wort zu fei­ern. Die dies­jäh­ri­ge Aus­ga­be war jedoch auch von Kon­tro­ver­sen geprägt, die hit­zi­ge Dis­kus­sio­nen und Debat­ten aus­lös­ten, die durch die hei­li­gen Hal­len schall­ten.

Eines der wich­tigs­ten The­men war die Rede­frei­heit. In einem Zeit­al­ter, in dem Infor­ma­tio­nen unge­hin­dert flie­ßen, stell­ten vie­le die ethi­schen Gren­zen in Fra­ge, wenn man Ver­la­gen mit extre­men poli­ti­schen oder kon­tro­ver­sen Ideo­lo­gien eine Platt­form bie­tet. Die­ses ethi­sche Dilem­ma lös­te einen Dis­kurs dar­über aus, wo die Gren­ze zwi­schen frei­er Mei­nungs­äu­ße­rung und der För­de­rung von Hass oder Into­le­ranz gezo­gen wer­den soll­te.

Auch die Fra­ge der Reprä­sen­ta­ti­on in der Ver­lags­bran­che war ein The­ma, das lei­den­schaft­lich dis­ku­tiert wur­de. Vie­le Teil­neh­mer äußer­ten ihre Besorg­nis über die man­geln­de Viel­falt unter den Autoren, ins­be­son­de­re in den höhe­ren Rän­gen der Lite­ra­tur. Der Ruf nach einer stär­ke­ren Ein­be­zie­hung unter­re­prä­sen­tier­ter Stim­men, sowohl in Bezug auf Autoren als auch auf The­men, wur­de wäh­rend der gesam­ten Mes­se laut.

Dar­über hin­aus warf die Frank­fur­ter Buch­mes­se ein Schlag­licht auf die lau­fen­de Debat­te über das Urhe­ber­recht und die Zukunft des digi­ta­len Publi­zie­rens. Wäh­rend die Tech­no­lo­gie die Art und Wei­se, wie wir Lite­ra­tur kon­su­mie­ren, umge­stal­tet, wur­den Fra­gen über die gerech­te Ent­schä­di­gung von Autoren und die Nach­hal­tig­keit tra­di­tio­nel­ler Ver­lags­mo­del­le heiß umstrit­ten.

Trotz die­ser Kon­tro­ver­sen dien­te die Mes­se als leben­di­ger Markt­platz für Bücher, Ideen und den Aus­tausch von Kul­tu­ren. Die Besu­cher fei­er­ten den Reich­tum der mensch­li­chen Vor­stel­lungs­kraft, erkun­de­ten zahl­lo­se lite­ra­ri­sche Gen­res und ent­deck­ten neue Stim­men aus allen Ecken der Welt. Lite­ra­ri­sche Dis­kus­sio­nen, Autoren­in­ter­views und Podi­ums­dis­kus­sio­nen ermög­lich­ten einen frei­en Gedan­ken­aus­tausch und ein erneu­er­tes Enga­ge­ment für die Kraft des geschrie­be­nen Wor­tes.

Die Frank­fur­ter Buch­mes­se 2023 war mehr als ein Markt­platz für Bücher; sie war ein Spie­gel­bild unse­rer sich stän­dig wei­ter­ent­wi­ckeln­den Gesell­schaft und der dyna­mi­schen, viel­schich­ti­gen Natur der Lite­ra­tur selbst. Sie erin­ner­te dar­an, dass Lite­ra­tur, wie jede Kunst­form, von Viel­falt, Kon­tro­ver­sen und der Frei­heit lebt, Tief­grün­di­ges und Pro­vo­kan­tes aus­zu­drü­cken. Am Ende der Mes­se konn­te man sich des Ein­drucks nicht erweh­ren, dass die Bedeu­tung der Lite­ra­tur als Motor des Wan­dels und des Dia­logs in unse­rer kom­ple­xen Welt neu erkannt wur­de.

Arti­kel­text aus ChatGPT, über­setzt mit DeepL, Arti­kel­bild aus Fire­fly aus einem Modell trai­niert mit aus­schließ­lich für Ver­wen­dung frei­ge­ge­be­nen Bil­dern.

»Künstliche Intelligenz« und vietnamesische Tierärzte

»Künst­li­che Intel­li­genz« ali­as »KI« ist gera­de eins der Auf­re­ger­the­men schlecht­hin und es äußern sich ger­ne Per­so­nen dazu, die nicht den gerings­ten Schim­mer über das The­ma haben, gera­de aus dem Bereich Poli­tik lese ich immer wie­der Stil­blü­ten zwi­schen Hohn­la­chen und Fremd­schä­men.

Die­ses Bei­spiel doku­men­tiert gera­de­zu per­fekt die Pro­ble­me mit Deep Lear­ning-basier­ten Tech­ni­ken, ins­be­son­de­re wenn man sie unüber­wacht und ohne redak­tio­nel­le Prü­fung ein­setzt.

Es han­delt sich um die deut­sche Über­set­zung des eng­li­schen Ori­gi­nal­tex­tes zur Fern­seh­se­rie THE A‑TEAM beim Ama­zons IMDb.

Die Über­set­zung ist wort­wört­lich kor­rekt, inhalt­lich aber erstaun­lich falsch. Auch vom Wort­sinn her liegt der DL-Algo­rith­mus dane­ben, denn nicht die Unschul­di­gen wer­den vom Mili­tär ver­folgt, son­dern das A‑Team.

Das doku­men­tiert aber eben auch die Pro­ble­me mit »KI«-generierten Tex­ten: Sie kön­nen voll­stän­dig glaub­wür­dig aus­se­hen, sind aber inhalt­li­cher Bull­shit. Das lässt sich eins zu eins auf ande­re Berei­che von KI als Über­set­zung oder Text­ge­ne­rie­rung über­tra­gen. Redak­teu­re, die mei­nen, das könn­te ihnen die Arbeit pri­ma erleich­tern, könn­ten irgend­wann ein übles Erwa­chen erle­ben, wenn ihnen ein DL-erzeug­ter Bull­shit-Arti­kel durch­ge­rutscht sein wird und die Repu­ta­ti­on ihres Medi­ums zer­stört.

Ich hal­te »KI« in vie­len Berei­chen für ein über­aus hilf­rei­ches und nütz­li­ches Tool (ich möch­te »con­tent awa­re fill in Pho­to­shop eben­so wenig mis­sen, wie mei­ne DL-basier­ten Ups­ca­ler oder Denoi­ser), aber aus dem Traum der Gold­grä­ber­stim­mung, und dem »spart euch viel Geld für Tex­ter« die der­zeit von vie­len bekoks­ten Marketing-»Spezialisten« ver­brei­tet wird, kann schnell ein Alp­traum wer­den.

Ange­sichts der rasan­ten Geschwin­dig­keit mit denen sich Deep Lear­ning-basier­te Appli­ka­tio­nen gera­de wei­ter ent­wi­ckeln, könn­te mei­ne Aus­sa­ge in drei Mona­ten aber bereits hin­fäl­lig sein. Die Tech­nik ent­wi­ckelt sich der­ma­ßen rasant, dass unse­re übli­cher­wei­se in Tech-Fra­gen völ­lig ver­schnarch­ten Poli­ti­ker sich schwer tun wer­den, das zu regu­lie­ren und im Sin­ne der Bevöl­ke­rung ein­zu­he­gen.

Übri­gens: der Über­set­zer DeepL, eben­falls Deep Lea­ring-basiert, wie der Name bereits andeu­tet, über­setzt den Satz per­fekt. Aus

Four Viet­nam vets, framed for a crime they did­n’t com­mit, help the inno­cent while on the run from the mili­ta­ry.

wird

Vier Viet­nam-Vete­ra­nen, die eines Ver­bre­chens beschul­digt wer­den, das sie nicht began­gen haben, hel­fen Unschul­di­gen, wäh­rend sie auf der Flucht vor dem Mili­tär sind.

Offen­bar sind Ama­zons Über­set­zungs­al­go­rith­men ver­bes­se­rungs­wür­dig.

Dank an Thors­ten Krü­ger fürs fin­den des urlus­ti­gen Pat­zers bei IMDb.

Paizo positioniert sich gegen Deep Learning-basierte Inhalte

Pai­zo, der Her­aus­ge­ber von Pen & Paper-Rol­len­spie­len wie PATHFINDER oder STARFINDER posi­tio­niert sich in einem aktu­el­len State­ment ein­deu­tig gegen »AI«-generierte Inhal­te, sei­en es Bil­der oder Tex­te. Das gilt auch für Fan­art.

Das bezieht sich ins­be­son­de­re auch auf ihre Online­platt­for­men Path­fin­der Infi­ni­te und Star­fin­der Infi­ni­te, auf denen es Fans mög­lich ist, Con­tent basie­rend auf Pai­zos IPs zu ver­kau­fen. Pai­zo schreibt dazu:

Sin­ce we laun­ched the com­pa­ny in 2002, Pai­zo has made its repu­ta­ti­on with the assis­tance of count­less tra­di­tio­nal artists and wri­ters, who are just as inte­gral to the suc­cess of our games as our in-house edi­tors, art direc­tors, desi­gners, and deve­lo­pers. The ethi­cal and legal issues sur­roun­ding »AI art« and wri­ting prompt pro­grams — and the serious thre­at they pose to the liveli­hoods of part­ners who have hel­ped us get to whe­re we are today as a com­pa­ny — demand that we take a firm posi­ti­on against the use of this tech­no­lo­gy in Pai­zo pro­ducts.

Seit der Grün­dung des Unter­neh­mens im Jahr 2002 hat sich Pai­zo mit Hil­fe unzäh­li­ger tra­di­tio­nel­ler Künst­ler und Autoren einen Namen gemacht, die zum Erfolg unse­rer Spie­le eben­so bei­tra­gen wie unse­re inter­nen Redak­teu­re, Art Direc­tors, Desi­gner und Ent­wick­ler. Die ethi­schen und recht­li­chen Fra­gen im Zusam­men­hang mit »KI-Kunst« und Text­ge­ne­rie­rungs­pro­gram­men – und die ernst­haf­te Bedro­hung, die sie für den Lebens­un­ter­halt unse­rer Part­ner dar­stel­len, die uns dabei gehol­fen haben, dort­hin zu gelan­gen, wo wir heu­te als Unter­neh­men ste­hen – erfor­dern, dass wir eine kla­re Posi­ti­on gegen die Ver­wen­dung die­ser Tech­no­lo­gien in Pai­zo-Pro­duk­ten bezie­hen.

Pro­ble­ma­tisch dürf­te in die­sem Zusam­men­hang aller­dings wer­den, dass es im Moment nahe­zu unmög­lich sein dürf­te, Tex­te oder Bil­der die mit­tels Deep Lear­ning gene­riert wur­den, ver­läss­lich zu iden­ti­fi­zie­ren (wobei aller­dings auch hier­für Algo­rith­men bereits auf dem Weg sind).

Es wird jetzt span­nend sein zu sehen, wie lan­ge sie die­sen Stand­punkt auf­recht­erhal­ten wer­den – oder kön­nen.

Bild Copy­right Pai­zo

Wie ChatGPT das Ende des Selfpublishings einläuten könnte

Vor einer Woche erklär­te der Her­aus­ge­ber des renom­mier­ten US-Phan­tas­tik­ma­ga­zing Clar­kes­world, dass man bis auf wei­te­res kei­ne Kurz­ge­schich­ten mehr anneh­men wür­de. Grund: Er war mit Kurz­ge­schich­ten geflu­tet wor­den, die offen­sicht­lich mit Open AIs Deep Lear­ning-basier­tem Chat­bot ChatGPT erstellt wor­den waren (mit »künst­li­cher Intel­li­genz« hat das übri­gens nur weit­läu­fig zu tun, auch wenn Ahnungs­lo­se das gern gleich­set­zen. Deep Lear­ning ist nur ein Aspekt des wei­ten Fel­des KI, aber kei­ne KI an sich und in sich, von ech­ter KI sind wir noch weit ent­fernt. Wenn also Politiker°Innen oder Mar­ke­ting-Hei­nis in dem Zusam­men­hang von KI faseln, sind sie nicht von Ahnung getrübt und nut­zen ein­fach ein Buz­zword).

Damit erreicht ein Phä­no­men aus dem Bereich bil­der­stel­len­de Kunst die Autoren und Ver­la­ge. Im Bereich Bil­der­stel­lung wer­den wir seit Mona­ten mit Bil­dern geflu­tet, die angeb­lich Kunst sind und bei denen tat­säch­lich nur oft Unbe­gab­te Mid­jour­ney, Dall‑E oder Sta­ble Dif­fu­si­on mit Begrif­fen füt­tern und dann mei­nen, sie hät­ten mit den ent­stan­de­nen Bil­dern Kunst erschaf­fen, was natür­lich so pau­schal Unsinn ist.

Und genau­so nut­zen jetzt Per­so­nen, die sich für Schriftsteller°Innen hal­ten, ChatGPT, um Tex­te zu erschaf­fen. Und das soll­te auch nicht wun­dern, denn genau dafür hat­te Open AI bereits Able­ger sei­nes Algo­rith­mus GPT‑3 bewor­ben: Beim Ver­fas­sen von Tex­ten zu hel­fen und Schreib­blo­cka­den zu über­win­den. Dabei beginnt man Sät­ze oder Absät­ze und die GPT-3-basier­ten Tools ver­voll­stän­di­gen die­se im Kon­text des bereits Geschrie­be­nen.

Logo ChatGPT

Des­we­gen soll­te es nicht wun­dern, wenn sich selbst für gewitzt hal­ten­de Pseudoautor°Innen mei­nen, sie wür­den gro­ße Lite­ra­tur erschaf­fen (oder um ein­fach schnel­les Geld zu machen), indem sie ChatGPT mit­tels Prompt anwei­sen, eine Kurz­ge­schich­te zu ver­fas­sen.

Aber nicht nur Kurz­ge­schich­ten sind ein Pro­blem. Ama­zon hat­te im Self­pu­bli­shing-Bereich schon seit Jah­ren sowohl mit Pla­gia­ten zu kämp­fen, als auch mit künst­lich auf­ge­bläh­ten eBooks, denn Ama­zon zahlt nach gele­se­nen Sei­ten. Dazu kommt jetzt eine Schwem­me von eBooks, die mit­tels Deep Lear­ning-Algo­rith­men erstellt wur­den. Reu­ters schreibt dazu, es sei unmög­lich fest­zu­stel­len, bei wie vie­len eBooks die Betei­li­gung von ChatGPT ver­schwie­gen wur­de.

Und das ist aus vie­len Grün­den ein Pro­blem. An ers­ter Stel­le sicher­lich, weil es für Selfpublisher°innen ohne­hin schon äußerst schwie­rig ist, sicht­bar zu wer­den, das wird noch viel schwie­ri­ger, wenn man zusätz­lich auch noch in einer Flut von DL-gene­rier­ten Büchern ver­sinkt.

Es gibt inzwi­schen Pro­gram­me, die ChatGPT-erzeug­te Tex­te erken­nen kön­nen; Fun Fact am Ran­de: auch die basie­ren auf Deep Lear­ning. Aller­dings ste­hen die zum einen nicht jeder zur Ver­fü­gung (oder Nut­zer sind nicht in der Lage, sie zu ver­wen­den) und zum ande­ren wird es ins­be­son­de­re für Ama­zon äußerst schwie­rig wer­den, gro­ße Men­gen an Ver­öf­fent­li­chun­gen zu durch­su­chen – und es wird garan­tiert auch Fal­se Posi­ti­ves geben, also Bücher, die fälsch­lich auto­ma­ti­siert aus­sor­tiert wer­den, obwohl kei­ne soge­nann­te KI betei­ligt war.

Das ist selbst ein Pro­blem für den größ­ten Self­pu­bli­shing-Anbie­ter Ama­zon, der sicher­lich ver­su­chen wird, sei­ne tech­ni­sche Macht und Kom­pe­tenz dage­gen in Stel­lung zu brin­gen. Die deut­sche Buch­bran­che glänzt übli­cher­wei­se durch tech­ni­sche Rück­stän­dig­keit und wird damit mei­ner Erwar­tung nach noch viel grö­ße­re Pro­ble­me haben. Ich gehe davon aus, dass sich in nicht all­zu fer­ner Zukunft jemand mit der Nach­richt mel­den wird, er habe einem der gro­ßen Publi­kums­ver­la­ge ein per DL erstell­tes Werk unter­ge­ju­belt.

Pro­ble­ma­tisch ist das aber auch für Selfpublisher°Innen (und nicht nur für die), wenn Ama­zon sei­nen Dienst mas­siv ein­schränkt, um der genann­ten Pro­ble­me Herr zu wer­den, oder wenn deut­sche Platt­for­men aus Angst und tech­ni­schem Unver­mö­gen das­sel­be tun. Aber auch dass Her­aus­ge­ber wie Clar­kes­world kei­ne Kurz­ge­schich­ten mehr anneh­men, um Zeit zu haben einen Weg zu fin­den, um damit umzu­ge­hen, ist besorg­nis­er­re­gend über das Self­pu­bli­shing hin­aus (selbst wenn Kurz­ge­schich­ten in Deutsch­land lei­der qua­si kei­ne Rol­le spie­len).

Pro­ble­ma­tisch ist das auch des­we­gen, weil ChatGPT mit Mil­li­ar­den Tex­ten aus dem Web per Data­mi­ning gefüt­tert wur­de, der Algo­rith­mus hat aus die­sen Tex­ten sein künst­li­ches neu­ro­na­les Netz­werk trai­niert, daher auch der Begriff Deep Lea­ring (stark ver­ein­facht). Es könn­te also pas­sie­ren, dass Frag­men­te aus den Ori­gi­nal­tex­ten in den erzeug­ten Inhal­ten auf­tau­chen und das wäre ein Pla­gi­at. Dass das nicht abwe­gig ist, zeigt dass Micro­softs Code-Ver­voll­stän­di­gungs-Tool CoPi­lot dabei erwischt wur­de, uner­laubt den Code Drit­ter zu kopie­ren, mit dem das Tool gefüt­tert wor­den war, dabei konn­te die­ser Dritt­code ein­deu­tig iden­ti­fi­ziert wer­den – und Pro­gramm­code ist in vie­len Fäl­len als krea­ti­ve Schöp­fung eben­falls urhe­ber­recht­lich geschützt.

Ich leh­ne Deep Lear­ning nicht grund­sätz­lich ab und sehe auch durch­aus reich­lich posi­ti­ve Aspek­te und lega­le Anwen­dungs­ge­bie­te (die auf­zu­zäh­len wür­de den Rah­men des Arti­kels spren­gen). Aber wie mit jeder neu­en Tech­no­lo­gie gibt es Per­so­nen, die die Mög­lich­kei­ten aus­nut­zen und ver­wen­den, um sich einen Vor­teil zu ver­schaf­fen, sei es in der Inter­net-Wäh­rung »Sicht­bar­keit« oder finan­zi­ell. Ich bin sehr gespannt, wie Gesell­schaft und Wirt­schaft dar­auf reagie­ren wer­den. Von der deut­schen Poli­tik erwar­te ich in der Hin­sicht nichts, die bemer­ken neue Tech-The­men und Regu­lie­rungs­not­wen­dig­kei­ten ohne­hin immer zehn Jah­re zu spät und/​oder reagie­ren dann hand­werk­lich mise­ra­bel dar­auf, weil sie die inhalt­lich nicht ver­stan­den haben, oder weil Geset­ze durch Unter­neh­men her­beilob­by­isiert wer­den.

In den USA lau­fen die ers­ten Ver­fah­ren von Künstler°Innen gegen Open AI oder die Betrei­ber von Mid­joun­ey. Die Kla­gen­den hal­ten es für nicht in Ord­nung, dass ihre Wer­ke unge­fragt in die DL-Algo­rith­men gefüt­tert wur­den. Ich erwar­te dem­nächst Ähn­li­ches im Bereich Text.

Zum Abschluss noch ein Bei­spiel:

Ich sag­te zu ChatGPT:

Wri­te a short sto­ry about hyper­in­tell­gent ali­ens that visit earth to paci­fy huma­ni­ty but that goes awful­ly wrong

Und die Ant­wort war fol­gen­de Vignet­te:

The hyper­in­tel­li­gent ali­ens arri­ved on Earth with the best of inten­ti­ons. They were a peaceful spe­ci­es and had heard about the vio­lence and con­flict that plagued the pla­net. They belie­ved they could help. The ali­ens had the power to paci­fy huma­ni­ty with a sin­gle thought, and they were con­fi­dent that they could bring about a new era of peace and harm­o­ny.

The lea­ders of Earth wel­co­med the ali­ens with open arms. They were exci­ted about the pro­s­pect of a world wit­hout war, fami­ne, or pover­ty. The ali­ens began their work, using their advan­ced tech­no­lo­gy to paci­fy human minds. At first, ever­y­thing see­med to be going well. Peo­p­le stop­ped fight­ing, and the world beca­me a much quie­ter place.

Howe­ver, as time went on, some­thing star­ted to go wrong. The paci­fi­ca­ti­on began to have unin­ten­ded con­se­quen­ces. Peo­p­le stop­ped being crea­ti­ve, curious, and pas­sio­na­te. They beca­me apa­the­tic and indif­fe­rent to ever­y­thing around them. The world beca­me a sta­g­nant, color­less place, devo­id of any real life.

The ali­ens were baf­f­led. They had inten­ded to crea­te a peaceful world, but they had not rea­li­zed the true cost of paci­fi­ca­ti­on. They had taken away the very essence of what made humans human.

The lea­ders of Earth deman­ded that the ali­ens rever­se their paci­fi­ca­ti­on. They wan­ted their peo­p­le to be free to think, feel, and act as they plea­sed. But the ali­ens had no idea how to undo what they had done. They had thought that they could make the world a bet­ter place, but ins­tead, they had des­troy­ed it.

In the end, the ali­ens left Earth, sad­den­ed by the unin­ten­ded con­se­quen­ces of their actions. They had hoped to help huma­ni­ty, but ins­tead, they had rob­bed them of their huma­ni­ty. And so, the world retur­ned to its for­mer sta­te, with all its flaws and imper­fec­tions. But at least, it was still ali­ve.

Sicher, das ist weder hohe Lite­ra­tur (aber das ist eine Men­ge Bel­le­tris­tik eben­falls nicht) noch beson­ders krea­tiv. Den­noch kann man viel­leicht Neil Clar­kes Pro­blem ver­ste­hen, wenn er mit sol­chen Tex­ten geflu­tet wird. Übri­gens ist ChatGPT im eng­lisch­spra­chi­gen Bereich bei Ama­zon inzwi­schen an etli­chen Wer­ken als »Mit­au­tor« genannt.

Dis­clai­mer: Die­ser Arti­kel wur­de ohne die Nut­zung von ChatGPT erstellt (bis auf die Vignet­te), auch wenn es mir in den Fin­gern juck­te. Arti­kel­bild aus Dall‑E, Prompt: »A robot spe­wing money, digi­tal pain­ting«. Logo ChatGPT Copy­right Open AI

Der aktuelle Hype um »KI-Kunst«

In letz­ter Zeit gibt es einen gro­ßen Hype um »KI Kunst« (»AI Art«).

(eng­lish ver­si­on of this text on Face­book)

Ers­tens: Es steckt kei­ne KI drin, wir sind von ech­ter künst­li­cher Intel­li­genz so weit ent­fernt wie eh und je. Die Bil­der wer­den von Deep-Lear­ning-Algo­rith­men erzeugt. Die­se funk­tio­nie­ren, indem eine sehr gro­ße Anzahl ver­schlag­wor­te­ter Bil­der in den Algo­rith­mus ein­ge­speist wird. Durch geschick­te Pro­gram­mie­rung und enor­me Rechen­leis­tung (die Art von Rechen­leis­tung, die moder­ne Gam­ing-Gra­fik­kar­ten bereit­stel­len kön­nen) erstel­len die Algo­rith­men dann neue Bil­der aus den alten, die auf­grund der Ver­schlag­wor­tung mehr oder weni­ger zu der Beschrei­bung (»prompt«) pas­sen, die der Nut­zer angibt.

Sind die ent­ste­hen­den Bil­der »Kunst«? Höchst­wahr­schein­lich ja. Vie­le von ihnen sind ziem­lich beein­dru­ckend.

Aber:

Ist das »Kunst­schöp­fung«, wie eini­ge Nut­zer behaup­ten und die Bil­der, die aus den Algo­rith­men her­vor­ge­hen, stolz als ihre »Krea­tio­nen« prä­sen­tie­ren?

Sicher­lich nicht. Der Schaf­fens­pro­zess für Kunst muss von einem Künst­ler aus­ge­hen, nicht von einem Algo­rith­mus. Auch der »Prompt« ent­hält kei­nen Schaf­fens­pro­zess. Es han­delt sich ledig­lich um eine Anwei­sung. Man kann das damit ver­glei­chen, dass man einem Künst­ler sagt, was er malen soll, und er oder sie malt es dann für einen. Der Schaf­fens­pro­zess liegt beim Künst­ler, nicht bei dem­je­ni­gen, der sagt, was er haben möch­te.

Deep Lear­ning-Algo­rith­men sind ein groß­ar­ti­ges neu­es Werk­zeug in der Tool­box des Künst­lers. Man kann sie für ver­schie­de­ne Zwe­cke ein­set­zen: Um schnell Ideen zu ent­wi­ckeln. Um Kunst­wer­ke zu gene­rie­ren, die in ech­ten krea­ti­ven Arbei­ten ver­wen­det wer­den kön­nen, indem Deri­va­te der DL-Bil­der erstellt wer­den. Um pro­ze­du­ra­le Tex­tu­ren für 3D-Model­le zu erstel­len. Für Look­dev. Zur Inspi­ra­ti­on. Für Col­la­gen. Als Teil eige­ner Krea­tio­nen. Man kann also Bil­der ver­wen­den, die aus einem DL-Algo­rith­mus ent­stan­den sind, um Kunst zu schaf­fen, aber sie sind selbst kei­ne Kunst, da kein krea­ti­ver oder künst­le­ri­scher Pro­zess invol­viert war, son­dern nur eine Men­ge Rechen­leis­tung und Algo­rith­men, die von Pro­gram­mie­rern geschaf­fen wur­den (und, wenn wir genau­er hin­schau­en, der krea­ti­ve Pro­zess der Künst­ler, die die ursprüng­li­chen Bil­der geschaf­fen haben, aber nicht der einer Per­son, die nur einen Prompt in den Algo­rith­mus ein­gibt).

DL-Bil­der sind ein neu­es und fas­zi­nie­ren­des Werk­zeug für Krea­ti­ve und Künst­ler, aber man ist kein Künst­ler, wenn man einem DL-Algo­rith­mus ein­fach einen Aus­druck vor­gibt und dann war­tet, was dabei her­aus­kommt.

Das wird in den nächs­ten Jah­ren ein The­ma für Anwäl­te und Gerich­te sein. Vor allem, weil vie­le Bil­der von Künst­lern in die DL-Algo­rith­men ein­ge­speist wur­den, ohne sie zu fra­gen (das führt zu Bil­dern, die im Stil die­ser Künst­ler erstellt wur­den; die Auf­nah­me der Bil­der in die Daten­bank kann eine Urhe­ber­rechts­ver­let­zung dar­stel­len, obwohl sie nicht 1:1 repro­du­ziert wer­den, das wer­den Rich­ter ent­schei­den müs­sen). Stil kann nicht urhe­ber­recht­lich geschützt wer­den, aber es han­delt sich um einen völ­lig neu­en Anwen­dungs­fall.

Mit Hil­fe von Deep Lear­ning erstell­te Bil­der sind kei­ne Kunst an sich (sie kön­nen aber auf­grund des Aus­gangs­ma­te­ri­als sehr künst­le­risch und schön aus­se­hen). Aber sie sind auch nicht »schlecht« oder »das Ende der Krea­ti­ven«. Sie sind ein neu­es Werk­zeug.

(Bild aus Sta­ble Dif­fu­si­on. Beein­dru­ckend, aber kei­ne Nach­be­ar­bei­tung oder ablei­ten­de Arbeit dar­an vor­ge­nom­men).

Nerdspace: Spleeter trennt Stimme und Musik

Ich möch­te ver­su­chen die sträf­lich ver­nach­läs­sig­te Rubrik »Nerd­space«, die sich mit High­tech und Nerd­krem­pel wie 3D-Druck, Coding, Gad­gets und Ähn­li­chem befasst, ein wenig wie­der­zu­be­le­ben. Damit nie­mand erschreckt wird, der mit Phan­tas­tik rech­net, wer­de ich »Nerd­space« vor die Titel schrei­ben. :)

Splee­ter heißt eine Deep Lear­ning-basier­te Soft­ware, mit der es mög­lich ist, aus Musik­stü­cken die Stim­me und die Instru­men­te zu extra­hie­ren. Das wur­de ursprüng­lich von Deezer ent­wi­ckelt und die haben die Soft­ware als Open Source (unter MIT-Lizenz) auf Git­hub gestellt.

Das funk­tio­niert jetzt schon ver­blüf­fend gut, auch wenn die Sing­stim­men gewis­se Ver­zer­run­gen auf­wei­sen und ble­chern klin­gen kön­nen, aber die Soft­ware ist ja auch noch ganz neu und kann dank Open Source von Drit­ten ver­bes­sert wer­den. Das Gan­ze kommt als Ten­sor­flow-basier­tes Python-Paket.

Splee­ter teilt Musik­stü­cke in meh­re­re Spu­ren auf, soge­nann­te »Stems«, das kön­nen zwi­schen zwei und fünf sein, und tut dies angeb­lich sehr schnell, ich muss das mal selbst aus­pro­bie­ren. Anwen­dungs­mög­lich­kei­ten sind leicht zu erken­nen: bei­spiels­wei­se Karaōke oder Remi­xe. Eben­so leicht zu erken­nen ist, dass die Musik­in­dus­trie nicht begeis­tert sein wird. Ein Recht auf Remix ist dank lob­by­hö­ri­ger Poli­ti­ker ja noch nicht mal am Hori­zont zu sehen, eher im Gegen­teil.

Des­we­gen soll­te man sich auch die bei­den Bei­spie­le schnell anhö­ren, bevor irgend­ein Darth aus der Musik­in­dus­trie oder ein You­tube-Algo­rith­mus sie weg­axt.

Der Inhalt ist nicht verfügbar.
Bitte erlaube Cookies und externe Javascripte, indem du sie im Popup am unteren Bildrand oder durch Klick auf dieses Banner akzeptierst. Damit gelten die Datenschutzerklärungen der externen Abieter.
Der Inhalt ist nicht verfügbar.
Bitte erlaube Cookies und externe Javascripte, indem du sie im Popup am unteren Bildrand oder durch Klick auf dieses Banner akzeptierst. Damit gelten die Datenschutzerklärungen der externen Abieter.
Nach oben scrollen

Durch die weitere Nutzung der Seite stimmst du der Verwendung von Cookies und von eingebundenen Skripten Dritter zu. Weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest (Navigation) oder auf "Akzeptieren" klickst, erklärst Du Dich damit einverstanden. Dann können auch Cookies von Drittanbietern wie Amazon, Youtube oder Google gesetzt werden. Wenn Du das nicht willst, solltest Du entweder nicht auf "Akzeptieren" klicken und die Seite nicht weiter nutzen, oder Deinen Browser im Inkognito-Modus betreiben, und/oder Anti-Tracking- und Scriptblocker-Plugins nutzen.

Mit einem Klick auf "Akzeptieren" werden zudem extern gehostete Javascripte freigeschaltet, die weitere Informationen, wie beispielsweise die IP-Adresse an Dritte weitergeben können. Welche Informationen das genau sind liegt nicht im Einflussbereich des Betreibers dieser Seite, das bitte bei den Anbietern (jQuery, Google, Youtube, Amazon, Twitter *) erfragen. Wer das nicht möchte, klickt nicht auf "akzeptieren" und verlässt die Seite.

Wer wer seine Identität im Web schützen will, nutzt Browser-Erweiterungen wie beispielsweise uBlock Origin oder ScriptBlock und kann dann Skripte und Tracking gezielt zulassen oder eben unterbinden.

* genauer: eingebettete Tweets, eingebundene jQuery-Bibliotheken, Amazon Artikel-Widgets, Youtube-Videos, Vimeo-Videos

Schließen