THE MANDALORIAN: Sets in der Unreal Engine

THE MANDALORIAN: Sets in der Unreal Engine

Wer Game Engi­nes immer noch für Spiele­kram hält, soll­te sich mal die­ses Pro­duc­tion Video von Epic bzw. Unre­al Engi­ne anse­hen. Das zeigt, wie Umge­bun­gen, bei­spiels­wei­se Land­schaf­ten, heut­zu­ta­ge am Set in Echt­zeit erstellt und pro­ji­ziert wer­den kön­ne, ganz ohne Green­screen. Das spart natür­lich ganz erheb­lich, wenn man nicht mehr mit Hun­der­ten Per­so­nen an Crew zu Loca­ti­ons rei­sen muss. Zudem kön­nen Regis­seur und Kame­ra­mann direkt in der VR die vir­tu­el­le Umge­bung so lan­ge umbau­en, bis sie ihren Vor­stel­lun­gen ent­spricht.

Die Qua­li­tät ist dank Qui­xel Megascans und moder­ner Gra­fik­kar­ten dabei so gut, dass man es nicht mehr von der Rea­li­tät unter­schei­den kann – und wenn doch, kann man in der Post­pro­duc­tion noch eine Men­ge machen. Auf die­se Art und Wei­se sind offen­bar diver­se Sze­nen aus Jon Fav­re­aus STAR WARS-Serie THE MANDALORIAN ent­stan­den. Die dra­ma­ti­schen Ein­spa­run­gen an Auf­wand und Kos­ten dürf­ten dafür ver­ant­wort­lich sein, dass TV-Seri­en mit der­ar­ti­gen Pro­duc­tion Values heut­zu­ta­ge über­haupt finan­zier­bar sind und damit mög­lich wer­den.

Man soll­te sich das unten ste­hen­de Video zum The­ma drin­gend mal anse­hen, denn das ist ziem­lich beein­dru­ckend. Jetzt weiß man auch, war­um Epic Games Qui­xel gekauft haben …

Der Inhalt ist nicht verfügbar.
Bitte erlaube Cookies und externe Javascripte, indem du sie im Popup am unteren Bildrand oder durch Klick auf dieses Banner akzeptierst.

Dank an Flo­ri­an Schlei­cher für’s Fin­den.

REBIRTH: Island in der Unreal Engine

REBIRTH: Island in der Unreal Engine

Neu­es von der Game Deve­lo­pers Con­fe­rence: Qui­xel haben ein beein­dru­cken­des Video ver­öf­fent­licht, das auf 3D-gescann­ten Land­schaf­ten in Island basiert und das in Echt­zeit in der Unre­al Engi­ne läuft.

REBIRTH ist qua­si eine Sci­ence Fic­tion-Fas­sung von Island, das Team hat sich einen Monat auf der Insel auf­ge­hal­ten und über 1000 Scans geschos­sen. An der Umset­zung in Unre­al Engi­ne 4.21, die einen Monat dau­er­te, arbei­te­ten nur drei Per­so­nen (am Video waren aller­dings erheb­lich mehr Per­so­nen betei­ligt, wie der Abspann zeigt).

Ein wei­te­res Bei­spiel dafür, was in Sachen Com­pu­ter­spie­le­gra­fik so alles auf uns zukommt.

Der Inhalt ist nicht verfügbar.
Bitte erlaube Cookies und externe Javascripte, indem du sie im Popup am unteren Bildrand oder durch Klick auf dieses Banner akzeptierst.

GDC2018: Digitale Menschen in Echtzeit

GDC2018: Digitale Menschen in Echtzeit

Gera­de habe ich schon über Echt­zeit-Ren­de­ring von Film­sze­nen geschrie­ben, aber Epic Games zei­gen noch eine erstaun­li­che Tech­de­mo mit ihrer Unre­al Engi­ne, näm­lich eine Echt­zeit-Dar­stel­lung einer fast schon erschre­ckend rea­lis­ti­schen Frau. Grund­sätz­lich wun­dert einen der Rea­lis­mus aller­dings schon weni­ger, wenn man weiß, dass das eine ech­te Per­son ist, die gescannt wur­de. Höchst erstaun­lich ist das Gan­ze dann aber wie­der dadurch, dass die Figur in der Spie­le­en­gi­ne in Echt­zeit durch gleich­zei­ti­ges Moti­on Cap­tu­ring der rea­len Per­son ani­miert wur­de.

Der Inhalt ist nicht verfügbar.
Bitte erlaube Cookies und externe Javascripte, indem du sie im Popup am unteren Bildrand oder durch Klick auf dieses Banner akzeptierst.

The Mill Blackbird: Augmented Reality Auto

The Mill Blackbird: Augmented Reality Auto

Nach POKEMON GO dach­ten ver­mut­lich vie­le, dass Aug­men­ted Rea­li­ty nur eine Spie­le­rei sei. Doch tat­säch­lich sieht das ganz anders aus, wie fol­gen­des Pro­jekt zeigt: The Mill Black­bird ist ein elek­tri­sches Gefährt, das mit Moti­on-Cap­tu­re-Mar­kern und 360-Grad-Kame­ras aus­ge­stat­tet ist. Man kann das Vehi­kel fil­men und die Film­in­for­ma­tio­nen, sowie die Bil­der vom Rig gehen an die Unre­al Engi­ne, die dann in Echt­zeit belie­bi­ge Fahr­zeu­ge in den Film ein­blen­den kann. Das sieht unter ande­rem des­we­gen so echt aus, weil die vom Rig gene­rier­ten 360-Grad-Fil­me in der Game-Engi­ne als Umge­bungs­maps ein­ge­bun­den wer­den, das bedeu­tet, dass die Spie­ge­lun­gen der Umge­bung im Lack des vir­tu­el­len Fahr­zeugs echt aus­se­hen.

Die Prä­sen­ta­ti­on ist von ges­tern und kommt von der Game Deve­lo­pers Con­fe­rence, die gera­de in San Fran­cis­co statt­fin­det. Es han­delt sich um ein Gemein­schafts­pro­jekt von Che­vro­let, der SFX-Fir­ma The Mill und Epic Games, der Fir­ma hin­ter der Unre­al Engi­ne.

Das fol­gen­de Video ist nur eine Kurz­fas­sung, die gesam­te Prä­sen­ta­ti­on fin­det sich auf Polygon.com

Der Inhalt ist nicht verfügbar.
Bitte erlaube Cookies und externe Javascripte, indem du sie im Popup am unteren Bildrand oder durch Klick auf dieses Banner akzeptierst.

Epic Games zeigt PROTOSTAR-Demo

Epic Games zeigt PROTOSTAR-Demo

Auf dem Mobi­le World Con­gress hat Epic Games Demos von PROTOSTAR gezeigt, die demons­trie­ren, was die Unre­al Engi­ne unter Ver­wen­dung des neu­en Stan­dards Vul­kan so alles kann. Und das sieht zuge­ge­be­ner­ma­ßen ganz schön gut aus. In der Wiki­pe­dia kann man zur Vul­kan API lesen:

Vul­kan – anfangs als Next Genera­ti­on OpenGL oder glNext bezeich­net – ist eine offe­ne Pro­gram­mier­schnitt­stel­le für die Ent­wick­lung platt­form­über­grei­fen­der Anwen­dun­gen mit dem Schwer­punkt auf 2D- und 3D-Gra­fik. Die Schnitt­stel­le ermög­licht im Ver­gleich zu OpenGL einen direk­te­ren Zugriff auf die Hard­ware, bie­tet jedoch einen gerin­ge­ren Grad an Abs­trak­ti­on. Bei­de Schnitt­stel­len wer­den par­al­lel wei­ter ent­wi­ckelt.

Und wenn das auf hoch­ge­rüs­te­ten Mobil­ge­rä­ten gut aus­sieht, kann es auf dem Desk­top-PC nur noch viel bes­ser wer­den. Effi­zi­en­te­re und per­for­man­te­re Gra­fik ist ins­be­son­de­re für die kom­men­den Vir­tu­al Rea­li­ty-Bril­len unab­ding­bar not­wen­dig.

[ytv]https://www.youtube.com/watch?v=zr6u5wJEs4w[/ytv]

[ytv]https://www.youtube.com/watch?v=FnKu7MLB7vQ[/ytv]

E3 2012: Unreal Engine 4

[E3 2012] Auf der E3 in Los Ange­les zeig­te Ent­wick­ler Epic Games erst­mals beweg­te Bil­der von der Ver­si­on vier der Unre­al Engi­ne. Zen­tra­le Neue­run­gen sind Beleuch­tungs- und Par­ti­kel­ef­fek­te.

Die »Glos­sy Spe­cu­lar Reflec­tion« ermög­licht von Objek­ten reflek­tier­tes Licht. Tei­le von Objek­ten kön­nen leuch­ten und auch das wird ins Umge­bungs­licht und in die Reflek­tio­nen mit auf­ge­nom­men. Sub­sur­face-Scat­te­ring (Volu­men­streu­ung) ermög­licht Gegen­stän­de mit einer sem­idurch­läs­si­gen Ober­flä­che, als Bei­spiel könn­te man hier Ker­zen­wachs nen­nen. Die­se neu­en Beleuch­tungs­ef­fek­te wir­ken sich auch auf Par­ti­kel und Par­ti­kel­wol­ken aus, so dass die­se von sich dar­in befind­li­chen oder sie durch­flie­gen­den leuch­ten­den Objek­ten illu­mi­niert wer­den, was zu ver­blüf­fen­den und über­aus rea­lis­ti­schen Effek­ten führt.

Im Unre­al 4 SDK erzeug­te Sze­nen müs­sen vor dem Tes­ten nicht mehr kom­pi­liert wer­den, man kann sie sich sofort inner­halb der Ent­wick­lungs­um­ge­bung anse­hen.

Ein Video von Game­trai­lers-TV zeigt, was die Ver­si­on vier kann:

Der Inhalt ist nicht verfügbar.
Bitte erlaube Cookies und externe Javascripte, indem du sie im Popup am unteren Bildrand oder durch Klick auf dieses Banner akzeptierst.