b_800_800_16777215_00_images_Abschlussarbeiten_Banner_MA_Hilbig.png
Masterarbeit J. Hilbig

Die visuelle Qualität von Videospielen scheint stetig zu steigen und ist in einigen Fällen kaum noch von Computer-Grafik Bild- oder Filmproduktionen zu unterscheiden. Trotzdem wird für Bild- und Filmproduktionen fast ausschließlich das Offline-Rendering verwendet, welches mit teils hohen Rechenzeiten für ein einzelnes Bild verbunden ist. Während Videospiele oder andere Echtzeitanwendungen ihre Bilder mit Realtime-Rendering innerhalb von wenigen Millisekunden berechnen müssen, damit die Benutzer eine flüssige Wiedergabe sehen können.

Es liegt also zunächst nahe Realtime-Renderings möglichst für alle Produktionen zu verwenden, um Zeit zu sparen. Mit Realtime-Renderings geht jedoch auch ein Qualitätsverlust einher, da nicht alle Bildberechnungen schnell genug realistisch ausgeführt werden können. Dieser Qualitätsunterschied scheint allerdings stetig kleiner zu werden, sodass mittlerweile auch für einige Filmproduktionen Realtime-Rendering verwendet wird. Trotzdem führen diese Unterschiede dazu, dass selbst bei der Entwicklung von Echtzeitanwendungen, noch die Nachfrage besteht Offline-Renderings der für die Anwendung erstellten Szenen zu generieren, wie die Existenz des V-Ray for Unreal Plugins zeigt.

Vor dem Start eines CG-Produktion stellt sich aktuell also die Frage, welche Art von Rendering verwendet werden sollte. Doch eine gute Antwort auf diese Frage ist schwer zu finden. Existierende Gegenüberstellungen sind entweder veraltet, kaum wissenschaftlich, beschäftigen sich nur einseitig mit der resultierenden Optik und selten mit dem Produktionsprozess, zeigen selten die Grenzen der jeweiligen Technik auf, oder eine Kombination dieser Punkte. Außerdem wird nicht behandelt, wie die Verwendung von Realtime-Engines bei der Entwicklung von Offline-Renderings von Vorteil sein kann.
Um Realtime- und Offline-Rendering wissenschaftlich zu vergleichen und zu evaluieren wird folgendes Vorgehen gewählt: 3D-Modelle sollen mit verschiedenen Workflows geshadet, gerendert und in eine Echtzeit-3D-Anwendung integriert werden. Dadurch sollen Unterschiede und Gemeinsamkeiten zwischen Realtime- und Offline-Rendering-Workflows aufgezeigt und analysiert werden. Mit Realtime- oder Offline-Rendering generierte Bilder und reale Bilder sollen in einer Umfrage nach Realismusgrad und wie sehr sie optisch ansprechend sind bewertet und evaluiert werden, um herauszufinden wie deutlich die Unterschiede zwischen den beiden Rendering-Techniken sind und welche Unterschiede relevant sind. Eine bereits entwickelte Auto-Konfigurator-Anwendung dient als Beispielanwendung, mit der einerseits die verschiedene Workflows getestet werden sollen. Und außerdem soll mit der Anwendung der Nutzen von Offline-Renderings an einem Anwendungsbeispiel abseits der Bild- oder Filmproduktion geprüft werden und evaluiert werden, ob zusätzlich zur Echtzeit-Darstellung eines konfigurierten Autos ein Offline-Rendering notwendig ist und wie lange auf ein solches gewartet werden kann.