REBIRTH: Island in der Unreal Engine

REBIRTH: Island in der Unreal Engine

Neu­es von der Game Deve­lo­pers Con­fe­rence: Qui­xel haben ein beein­dru­cken­des Video ver­öf­fent­licht, das auf 3D-gescann­ten Land­schaf­ten in Island basiert und das in Echt­zeit in der Unre­al Engi­ne läuft.

REBIRTH ist qua­si eine Sci­ence Fic­tion-Fas­sung von Island, das Team hat sich einen Monat auf der Insel auf­ge­hal­ten und über 1000 Scans geschos­sen. An der Umset­zung in Unre­al Engi­ne 4.21, die einen Monat dau­er­te, arbei­te­ten nur drei Per­so­nen (am Video waren aller­dings erheb­lich mehr Per­so­nen betei­ligt, wie der Abspann zeigt).

Ein wei­te­res Bei­spiel dafür, was in Sachen Com­pu­ter­spie­le­gra­fik so alles auf uns zukommt.

Der Inhalt ist nicht verfügbar.
Bitte erlaube Cookies und externe Javascripte, indem du sie im Popup am unteren Bildrand oder durch Klick auf dieses Banner akzeptierst.

GDC2018: Digitale Menschen in Echtzeit

GDC2018: Digitale Menschen in Echtzeit

Gera­de habe ich schon über Echt­zeit-Ren­de­ring von Film­sze­nen geschrie­ben, aber Epic Games zei­gen noch eine erstaun­li­che Tech­de­mo mit ihrer Unre­al Engi­ne, näm­lich eine Echt­zeit-Dar­stel­lung einer fast schon erschre­ckend rea­lis­ti­schen Frau. Grund­sätz­lich wun­dert einen der Rea­lis­mus aller­dings schon weni­ger, wenn man weiß, dass das eine ech­te Per­son ist, die gescannt wur­de. Höchst erstaun­lich ist das Gan­ze dann aber wie­der dadurch, dass die Figur in der Spie­le­en­gi­ne in Echt­zeit durch gleich­zei­ti­ges Moti­on Cap­tu­ring der rea­len Per­son ani­miert wur­de.

Der Inhalt ist nicht verfügbar.
Bitte erlaube Cookies und externe Javascripte, indem du sie im Popup am unteren Bildrand oder durch Klick auf dieses Banner akzeptierst.

The Mill Blackbird: Augmented Reality Auto

The Mill Blackbird: Augmented Reality Auto

Nach POKEMON GO dach­ten ver­mut­lich vie­le, dass Aug­men­ted Rea­li­ty nur eine Spie­le­rei sei. Doch tat­säch­lich sieht das ganz anders aus, wie fol­gen­des Pro­jekt zeigt: The Mill Black­bird ist ein elek­tri­sches Gefährt, das mit Moti­on-Cap­tu­re-Mar­kern und 360-Grad-Kame­ras aus­ge­stat­tet ist. Man kann das Vehi­kel fil­men und die Film­in­for­ma­tio­nen, sowie die Bil­der vom Rig gehen an die Unre­al Engi­ne, die dann in Echt­zeit belie­bi­ge Fahr­zeu­ge in den Film ein­blen­den kann. Das sieht unter ande­rem des­we­gen so echt aus, weil die vom Rig gene­rier­ten 360-Grad-Fil­me in der Game-Engi­ne als Umge­bungs­maps ein­ge­bun­den wer­den, das bedeu­tet, dass die Spie­ge­lun­gen der Umge­bung im Lack des vir­tu­el­len Fahr­zeugs echt aus­se­hen.

Die Prä­sen­ta­ti­on ist von ges­tern und kommt von der Game Deve­lo­pers Con­fe­rence, die gera­de in San Fran­cis­co statt­fin­det. Es han­delt sich um ein Gemein­schafts­pro­jekt von Che­vro­let, der SFX-Fir­ma The Mill und Epic Games, der Fir­ma hin­ter der Unre­al Engi­ne.

Das fol­gen­de Video ist nur eine Kurz­fas­sung, die gesam­te Prä­sen­ta­ti­on fin­det sich auf Polygon.com

Der Inhalt ist nicht verfügbar.
Bitte erlaube Cookies und externe Javascripte, indem du sie im Popup am unteren Bildrand oder durch Klick auf dieses Banner akzeptierst.

Epic Games zeigt PROTOSTAR-Demo

Epic Games zeigt PROTOSTAR-Demo

Auf dem Mobi­le World Con­gress hat Epic Games Demos von PROTOSTAR gezeigt, die demons­trie­ren, was die Unre­al Engi­ne unter Ver­wen­dung des neu­en Stan­dards Vul­kan so alles kann. Und das sieht zuge­ge­be­ner­ma­ßen ganz schön gut aus. In der Wiki­pe­dia kann man zur Vul­kan API lesen:

Vul­kan – anfangs als Next Genera­ti­on OpenGL oder glNext bezeich­net – ist eine offe­ne Pro­gram­mier­schnitt­stel­le für die Ent­wick­lung platt­form­über­grei­fen­der Anwen­dun­gen mit dem Schwer­punkt auf 2D- und 3D-Gra­fik. Die Schnitt­stel­le ermög­licht im Ver­gleich zu OpenGL einen direk­te­ren Zugriff auf die Hard­ware, bie­tet jedoch einen gerin­ge­ren Grad an Abs­trak­ti­on. Bei­de Schnitt­stel­len wer­den par­al­lel wei­ter ent­wi­ckelt.

Und wenn das auf hoch­ge­rüs­te­ten Mobil­ge­rä­ten gut aus­sieht, kann es auf dem Desk­top-PC nur noch viel bes­ser wer­den. Effi­zi­en­te­re und per­for­man­te­re Gra­fik ist ins­be­son­de­re für die kom­men­den Vir­tu­al Rea­li­ty-Bril­len unab­ding­bar not­wen­dig.

[ytv]https://www.youtube.com/watch?v=zr6u5wJEs4w[/ytv]

[ytv]https://www.youtube.com/watch?v=FnKu7MLB7vQ[/ytv]

E3 2012: Unreal Engine 4

[E3 2012] Auf der E3 in Los Ange­les zeig­te Ent­wick­ler Epic Games erst­mals beweg­te Bil­der von der Ver­si­on vier der Unre­al Engi­ne. Zen­tra­le Neue­run­gen sind Beleuch­tungs- und Par­ti­kel­ef­fek­te.

Die »Glos­sy Spe­cu­lar Reflec­tion« ermög­licht von Objek­ten reflek­tier­tes Licht. Tei­le von Objek­ten kön­nen leuch­ten und auch das wird ins Umge­bungs­licht und in die Reflek­tio­nen mit auf­ge­nom­men. Sub­sur­face-Scat­te­ring (Volu­men­streu­ung) ermög­licht Gegen­stän­de mit einer sem­idurch­läs­si­gen Ober­flä­che, als Bei­spiel könn­te man hier Ker­zen­wachs nen­nen. Die­se neu­en Beleuch­tungs­ef­fek­te wir­ken sich auch auf Par­ti­kel und Par­ti­kel­wol­ken aus, so dass die­se von sich dar­in befind­li­chen oder sie durch­flie­gen­den leuch­ten­den Objek­ten illu­mi­niert wer­den, was zu ver­blüf­fen­den und über­aus rea­lis­ti­schen Effek­ten führt.

Im Unre­al 4 SDK erzeug­te Sze­nen müs­sen vor dem Tes­ten nicht mehr kom­pi­liert wer­den, man kann sie sich sofort inner­halb der Ent­wick­lungs­um­ge­bung anse­hen.

Ein Video von Game­trai­lers-TV zeigt, was die Ver­si­on vier kann:

Der Inhalt ist nicht verfügbar.
Bitte erlaube Cookies und externe Javascripte, indem du sie im Popup am unteren Bildrand oder durch Klick auf dieses Banner akzeptierst.