Wissenschaftler des Fraunhofer-Instituts für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI in Berlin haben eine Methode entwickelt, mit der man das realistische Abbild eines Menschen in eine virtuelle Welt übertragen kann: Wie in Science-Fiction-Filmen erscheint es in voller Größe und dreidimensional im Raum. Man kann es aus allen Richtungen betrachten und – wie im Film – sogar um es herumgehen. Bislang war das nicht möglich, denn noch stößt die Virtuelle Realität (VR) an ihre Grenzen. Noch werden Personen durch künstliche dreidimensionale Modelle, sogenannte Avatare dargestellt, die man sieht, wenn man eine VR-Datenbrille aufsetzt. Allerdings mangelt es diesen künstlichen Figuren an naturgetreuem Aussehen und natürlicher Bewegung. Eine andere Möglichkeit ist es, das Videobild einer Person in frontaler Ansicht in die VR-Datenbrille zu spielen. Um sie herum gehen kann man aber nicht. Dadurch wirkt die ganze Szene künstlich, wenn man sich durch die virtuelle Welt bewegt. Die Person dreht einem stets ihre zweidimensionale Front zu.
20 Stereokameras
Die HHI-Forscher aber machen den dreidimensionalen Eindruck perfekt. Dafür haben sie ein Kamerasystem entwickelt, mit dem sie die Person filmen. Kern dieses Systems ist eine Stereokamera: Wie der Mensch mit seinen zwei Augen, nimmt sie die Person mit zwei Objektiven auf. Dieses stereoskopische Sehen führt dazu, dass sich Entfernungen gut abschätzen lassen, weil beide Augen aus einem etwas anderen Winkel auf ein Objekt blicken. Dadurch ergibt sich der dreidimensionale Eindruck. Um eine Person aus allen Richtungen im Detail aufzunehmen, benötigt man mehr als eine Kamera. »Wir setzen derzeit mehr als 20 Stereokameras ein, um einen Menschen abzubilden«, sagt Oliver Schreer, der am HHI die Arbeitsgruppe »Immersive Media & Communication« leitet. Jede Kamera nimmt nur einen Teil der Person auf. Die Herausforderung besteht also darin, die einzelnen Kamerabilder so miteinander zu fusionieren, dass ein realistisches Gesamtbild entsteht.
Zu dem System gehört mehr als nur die Kameratechnik. So haben die Forscher Algorithmen entwickelt, die aus den stereoskopischen Kamerabildern sehr schnell Tiefeninformation extrahieren können. Diese sind nötig, um die 3D-Gestalt einer aufgenommenen Person zu berechnen. Letztlich erzeugt der Computer aus den Kamerabildern ein virtuelles Modell des Menschen, das dann in die Szene übertragen wird. Die generierte 3D-Oberflächenstruktur der Person weist dabei viele Details auf. So können beispielsweise Falten in der Kleidung oder Details im Gesicht wahrgenommen werden. Dadurch wirkt dieses Modell in Aussehen und Bewegung natürlich und realitätsnah.
»Wir haben bei der Entwicklung der Algorithmen darauf geachtet, dass diese sehr effizient und damit schnell arbeiten, damit die Bewegungen der Gesprächspartner sehr schnell in ein dynamisches Modell überführt werden«, sagt Schreer, denn nur dadurch wirken die Bewegungen natürlich. Die Bilder eines einzelnen Kamerapaars können die Algorithmen in Echtzeit verarbeiten.
Jede Geste darstellen
Das Fusionieren der 3D-Information aus den verschiedenen Kamerabildern dauert einige Sekunden. Dennoch ist die Illusion schon jetzt perfekt. Das System überträgt das dreidimensionale dynamische Modell einer Person zügig in die Virtuelle Realität. Ein Mensch kann sich bei der Aufnahme in dem dafür vorgesehenen Bereich frei bewegen. Das virtuelle Ebenbild stellt jede Geste und Bewegung realistisch dar. »Unser Ziel ist es, dass ein realistisches Abbild eines Menschen zukünftig direkt mit der virtuellen Welt interagieren kann – zum Beispiel indem es virtuelle Objekte greift«, sagt Schreer.
Das neue Kamerasystem aus dem HHI soll zukünftig aber auch für andere Anwendungsgebiete genutzt werden. So arbeiten die Forscher beispielsweise auch an virtuellen Videokonferenzen. Es ließe sich aber auch im Infotainment-Bereich einsetzen. Anstelle eines passiven, frontalen Fernseherlebnisses könnte ein Fernsehzuschauer mittels VR-Brille direkt Teil der Spielfilmszene sein. Er würde nicht nur ein dreidimensionales Bild der Fernsehszene sehen, sondern auch in ihr virtuell umhergehen können und zum Beispiel Teil der Abenteuer seiner Science-Fiction-Helden werden.
Alternative zu Motion Tracking
»Wir können uns auch vorstellen, das Kamerasystem an verschiedenen Orten in kleinen Studios aufzubauen«, sagt Schreer. »Filmproduzenten könnten es nutzen, um die Bewegung von Schauspielern einfacher als bisher in Filmszenen zu übertragen.« Denn das ist bislang ausgesprochen aufwendig. Für gewöhnlich werden die Bewegungen von Schauspielern mit sogenannten Motion-Tracking-Verfahren eingefangen. Das Gesicht und der Körper des Schauspielers werden dafür mit kleinen Punkten markiert. Der Computer verfolgt die Bewegung der Punkte und überträgt diese auf das computergenerierte künstliche Abbild des Schauspielers – beispielsweise eines Actionschauspielers, der von Hochhaus zu Hochhaus springt. Doch mit einzelnen Marker-Punkten können Motion Tracking-Verfahren Bewegungen und vor allem die feine Mimik nur sehr ungenau oder mit sehr hohem technischen Aufwand erfassen. Für die Computer-Grafiker bedeutet das viel Nacharbeit, bis die Szene realistisch wirkt. »Mit unserem Kamerasystem hingegen möchten wir zukünftig die Person und deren Bewegungen sehr viel feiner auflösen und darstellen«, sagt Schreer.
Derzeit optimieren die Forscher ihr Kamerasystem und die dazugehörige Analysesoftware. Ob sie beides künftig als Dienstleitung zur Verfügung stellen oder an Produktionsfirmen lizensieren, steht noch nicht fest.