THE MANDALORIAN: Sets in der Unreal Engine

THE MANDALORIAN: Sets in der Unreal Engine

Wer Game Engi­nes immer noch für Spiele­kram hält, soll­te sich mal die­ses Pro­duc­tion Video von Epic bzw. Unre­al Engi­ne anse­hen. Das zeigt, wie Umge­bun­gen, bei­spiels­wei­se Land­schaf­ten, heut­zu­ta­ge am Set in Echt­zeit erstellt und pro­ji­ziert wer­den kön­ne, ganz ohne Green­screen. Das spart natür­lich ganz erheb­lich, wenn man nicht mehr mit Hun­der­ten Per­so­nen an Crew zu Loca­ti­ons rei­sen muss. Zudem kön­nen Regis­seur und Kame­ra­mann direkt in der VR die vir­tu­el­le Umge­bung so lan­ge umbau­en, bis sie ihren Vor­stel­lun­gen ent­spricht.

Die Qua­li­tät ist dank Qui­xel Megascans und moder­ner Gra­fik­kar­ten dabei so gut, dass man es nicht mehr von der Rea­li­tät unter­schei­den kann – und wenn doch, kann man in der Post­pro­duc­tion noch eine Men­ge machen. Auf die­se Art und Wei­se sind offen­bar diver­se Sze­nen aus Jon Fav­re­aus STAR WARS-Serie THE MANDALORIAN ent­stan­den. Die dra­ma­ti­schen Ein­spa­run­gen an Auf­wand und Kos­ten dürf­ten dafür ver­ant­wort­lich sein, dass TV-Seri­en mit der­ar­ti­gen Pro­duc­tion Values heut­zu­ta­ge über­haupt finan­zier­bar sind und damit mög­lich wer­den.

Man soll­te sich das unten ste­hen­de Video zum The­ma drin­gend mal anse­hen, denn das ist ziem­lich beein­dru­ckend. Jetzt weiß man auch, war­um Epic Games Qui­xel gekauft haben …

Der Inhalt ist nicht verfügbar.
Bitte erlaube Cookies und externe Javascripte, indem du sie im Popup am unteren Bildrand oder durch Klick auf dieses Banner akzeptierst.

Dank an Flo­ri­an Schlei­cher für’s Fin­den.

FORTNITE: Creative Mode

FORTNITE: Creative Mode

Wer sich auch nur ansatz­wei­se für Com­pu­ter­spie­le inter­es­siert, der hat sicher schon mal etwas vom Mul­ti­play­er-PvP FORTNITE gehört, erschaf­fen von Peop­le Can Fly und Epic Games, dem Ent­wick­ler hin­ter der Unre­al Engi­ne. Es han­delt sich um ein Gefecht zwi­schen einer bestimm­ten Anzahl vom Spie­lern gegen­ein­an­der in einem »last woman standing«-Szenario: Wer als letz­te übrig bleibt, gewinnt.

FORTNITE bekommt laut Epic einen Crea­ti­ve Mode, offen­bar eine Erwei­te­rung des bereits vor­han­de­nen Play­ground Modes. Im Crra­ti­ve Mode erhält man eine eige­ne insel, auf der dem Spie­ler kein ande­rer dazwi­schen­fun­ken kann und auf der man nach Lust und Lau­ne bau­en kann. Ich wür­de mal davon aus­ge­hen, dass man das auch koope­ra­tiv tun kann.

Käu­fer des Spiels dür­fen FORTNITE CREATIVE ab heu­te aus­pro­bie­ren, für den Rest der Welt wird das neue Fea­ture am 13. Dezem­ber 2018 frei­ge­schal­tet.

Der Inhalt ist nicht verfügbar.
Bitte erlaube Cookies und externe Javascripte, indem du sie im Popup am unteren Bildrand oder durch Klick auf dieses Banner akzeptierst.

Epic Games eröffnet neuen Computerspiele-Store

Epic Games eröffnet neuen Computerspiele-Store

Ges­tern kün­dig­ten Epic Games (FORTNITE und Unre­al Engi­ne) einen eige­nen Onlines­to­re für Com­pu­ter­spie­le an. Das dürf­te eine direk­te Atta­cke gegen Steam sein, ins­be­son­de­re des­we­gen, weil man den Spie­le­ent­wick­lern deut­lich bes­se­re Kon­di­tio­nen anbie­tet als die Kon­kur­renz: 88 % der Ein­nah­men sol­len an die Ent­wick­ler gehen und 12 % an die Shop­be­trei­ber.

Dabei ist der Shop kei­nes­wegs nur auf Spie­le beschränkt, die mit­tels Unre­al ent­wi­ckelt wur­den, die Engi­ne ist völ­lig egal, und mög­li­cher­wei­se wird es in Zukunft sogar Games für Andro­id und iOS auf der neu­en Platt­form geben. Aller­dings wer­den die übli­chen fünf Pro­zent Abga­ben die Epic Games übli­cher­wei­se für in Unre­al ent­wi­ckel­te Spie­le ein­for­dert auf der eige­nen Platt­form nicht fäl­lig.

Der Onlines­to­re soll in Kür­ze mit einem aus­ge­wähl­ten Port­fo­lio eröff­net wer­den und ab nächs­tem Jahr darf dann qua­si jeder sei­ne Spie­le dort ein­stel­len und ver­kau­fen. Epic will kein DRM vor­schrei­ben, Ent­wick­ler dür­fen aber wel­ches benut­zen. Foren und Strea­ming­diens­te soll es nicht geben, aber man will Online­spie­le bei­spiels­wei­se mit Ser­ver­tech­no­lo­gie und Match­ma­king unter­stüt­zen.

Screen­shot Epic Store Copy­right Epic Games

GDC2018: Digitale Menschen in Echtzeit

GDC2018: Digitale Menschen in Echtzeit

Gera­de habe ich schon über Echt­zeit-Ren­de­ring von Film­sze­nen geschrie­ben, aber Epic Games zei­gen noch eine erstaun­li­che Tech­de­mo mit ihrer Unre­al Engi­ne, näm­lich eine Echt­zeit-Dar­stel­lung einer fast schon erschre­ckend rea­lis­ti­schen Frau. Grund­sätz­lich wun­dert einen der Rea­lis­mus aller­dings schon weni­ger, wenn man weiß, dass das eine ech­te Per­son ist, die gescannt wur­de. Höchst erstaun­lich ist das Gan­ze dann aber wie­der dadurch, dass die Figur in der Spie­le­en­gi­ne in Echt­zeit durch gleich­zei­ti­ges Moti­on Cap­tu­ring der rea­len Per­son ani­miert wur­de.

Der Inhalt ist nicht verfügbar.
Bitte erlaube Cookies und externe Javascripte, indem du sie im Popup am unteren Bildrand oder durch Klick auf dieses Banner akzeptierst.

GDC2018: Echtzeit-Raytracing in Unreal Engine 4 mit Nvidia Volta

GDC2018: Echtzeit-Raytracing in Unreal Engine 4 mit Nvidia Volta

Epic Games demons­trie­ren zusam­men mit ILMx­LAB (Lucas­Films Abtei­lung für immer­si­ves Enter­tain­ment) und Nvi­dia auf der Game Developer’s Con­fe­rence in San Fran­cis­co Echt­zeit-Rayt­ra­cing in der Unre­al Engi­ne 4.

Das ist mit gro­ßer Wahr­schein­lich­keit nichts ande­res als der Beginn eines Para­dig­men­wech­sel bei der Erstel­lung cine­ma­ti­scher Sze­nen in Spie­len, dürf­te aber auch Aus­wir­kun­gen auf das Machen von Fil­men all­ge­mein haben, da damit CGIs erheb­lich schnel­ler und ein­fa­cher erstellt wer­den kön­nen, als mit den übli­chen zeit­auf­wen­di­gen Ren­der-Ver­fah­ren.

Die Demo zeigt Cha­rak­te­re aus den neu­en STAR WARS-Fil­men, näm­lich Tro­oper und Cap­tain Phas­ma, die Chrom-Rüs­tung letz­te­rer dürf­te auch ein Grund dafür gewe­sen sein, gera­de sie als Prot­ago­nis­tin in die­sem Film zu nut­zen, um die Mög­lich­kei­ten der Lösung zu zei­gen. Dar­un­ter (Ach­tung: Nerd­aus­drü­cke für Leu­te die sich mit 3D-Ren­de­ring beschäf­ti­gen):

- Tex­tu­red area lights
- Ray-traced area light shadows
- Ray-traced reflec­tions
- Ray-traced ambi­ent occlu­si­on
- Cine­ma­tic depth of field (DOF)
- NVIDIA Game­Works ray tra­cing denoi­sing

Noch­mal um es zu ver­deut­li­chen: Das pas­siert alles in Echt­zeit und den Berich­ten zufol­ge kann man ein iPad mit der App ARKit als vir­tu­el­le Kame­ra für Fokus und Nah­auf­nah­men nut­zen. Die Engi­ne nutzt dafür Nvi­di­as RTX Tech­no­lo­gie für ihre Vol­ta Gra­fik­kar­ten ange­spro­chen via Micro­softs Direc­tX Rayt­ra­cing API (DXR).

Die ers­te Vol­ta-Gra­fik­kar­te war die Titan V für 3000 Dol­lar, aber ab Mit­te 2018 wird es auch güns­ti­ge­re Model­le für Gamer geben.

Der Inhalt ist nicht verfügbar.
Bitte erlaube Cookies und externe Javascripte, indem du sie im Popup am unteren Bildrand oder durch Klick auf dieses Banner akzeptierst.

Epic Games zeigt PROTOSTAR-Demo

Epic Games zeigt PROTOSTAR-Demo

Auf dem Mobi­le World Con­gress hat Epic Games Demos von PROTOSTAR gezeigt, die demons­trie­ren, was die Unre­al Engi­ne unter Ver­wen­dung des neu­en Stan­dards Vul­kan so alles kann. Und das sieht zuge­ge­be­ner­ma­ßen ganz schön gut aus. In der Wiki­pe­dia kann man zur Vul­kan API lesen:

Vul­kan – anfangs als Next Genera­ti­on OpenGL oder glNext bezeich­net – ist eine offe­ne Pro­gram­mier­schnitt­stel­le für die Ent­wick­lung platt­form­über­grei­fen­der Anwen­dun­gen mit dem Schwer­punkt auf 2D- und 3D-Gra­fik. Die Schnitt­stel­le ermög­licht im Ver­gleich zu OpenGL einen direk­te­ren Zugriff auf die Hard­ware, bie­tet jedoch einen gerin­ge­ren Grad an Abs­trak­ti­on. Bei­de Schnitt­stel­len wer­den par­al­lel wei­ter ent­wi­ckelt.

Und wenn das auf hoch­ge­rüs­te­ten Mobil­ge­rä­ten gut aus­sieht, kann es auf dem Desk­top-PC nur noch viel bes­ser wer­den. Effi­zi­en­te­re und per­for­man­te­re Gra­fik ist ins­be­son­de­re für die kom­men­den Vir­tu­al Rea­li­ty-Bril­len unab­ding­bar not­wen­dig.

[ytv]https://www.youtube.com/watch?v=zr6u5wJEs4w[/ytv]

[ytv]https://www.youtube.com/watch?v=FnKu7MLB7vQ[/ytv]

E3 2012: Unreal Engine 4

[E3 2012] Auf der E3 in Los Ange­les zeig­te Ent­wick­ler Epic Games erst­mals beweg­te Bil­der von der Ver­si­on vier der Unre­al Engi­ne. Zen­tra­le Neue­run­gen sind Beleuch­tungs- und Par­ti­kel­ef­fek­te.

Die »Glos­sy Spe­cu­lar Reflec­tion« ermög­licht von Objek­ten reflek­tier­tes Licht. Tei­le von Objek­ten kön­nen leuch­ten und auch das wird ins Umge­bungs­licht und in die Reflek­tio­nen mit auf­ge­nom­men. Sub­sur­face-Scat­te­ring (Volu­men­streu­ung) ermög­licht Gegen­stän­de mit einer sem­idurch­läs­si­gen Ober­flä­che, als Bei­spiel könn­te man hier Ker­zen­wachs nen­nen. Die­se neu­en Beleuch­tungs­ef­fek­te wir­ken sich auch auf Par­ti­kel und Par­ti­kel­wol­ken aus, so dass die­se von sich dar­in befind­li­chen oder sie durch­flie­gen­den leuch­ten­den Objek­ten illu­mi­niert wer­den, was zu ver­blüf­fen­den und über­aus rea­lis­ti­schen Effek­ten führt.

Im Unre­al 4 SDK erzeug­te Sze­nen müs­sen vor dem Tes­ten nicht mehr kom­pi­liert wer­den, man kann sie sich sofort inner­halb der Ent­wick­lungs­um­ge­bung anse­hen.

Ein Video von Game­trai­lers-TV zeigt, was die Ver­si­on vier kann:

Der Inhalt ist nicht verfügbar.
Bitte erlaube Cookies und externe Javascripte, indem du sie im Popup am unteren Bildrand oder durch Klick auf dieses Banner akzeptierst.