Sonntag, 21. September 2014

High Fidelity: Aktuelle Alpha-Projekte

Quelle: High Fidelity
Am 16. September gab es im High Fidelity Blog einen neuen Artikel, in dem ein paar der gerade laufenden Alpha-Projekte vorgestellt wurden. Autor Dan Hope schreibt zu Beginn, dass ein Teil der aktuellen Entwicklungen auch schon im vorletzten Blogpost mit dem Namen “Easy” Behind the Scenes erklärt wurden. Dort hatte man mehrere neue Funktionen in einem gemeinsamen Projekt eingesetzt. Diese Funktionen waren Übertragung der Gesichtsmimik, Echtzeit Voxel-Rendering und Reduzierung der Latenz. Alle diese Themen werden aber eigentlich in einzelnen Projekten weiterentwickelt, um schneller zu Ergebnissen zu kommen.

Darüber hinaus gibt es viele weitere Projekte, an denen die Entwickler gerade im Hintergrund arbeiten. Leider stellt Dan davon nur ein paar wenige im Blogpost vor. Hier seine Aufzählung:

Da High Fidelity später einmal komplett auf Open Source Software basieren wird, will man auch andere Open Source Programme unterstützen, die für HiFi sinnvoll eingesetzt werden können. In einem aktuellen Projekt arbeitet ein Entwickler daran, den Datenaustausch mit Blender zu optimieren. 3D-Modelle, die in Blender erstellt wurden, lassen sich im FBX-Format in HiFi nutzen. Um die Kompatibilität zu verbessern, werden auch Entwickler von Blender mit einbezogen. Letzte Woche wurde zum Beispiel ein Weg gefunden, den HiFi-Avatar in Blender zu importieren, ohne dass dabei das Animations-Rig zerstört wurde. Damit können HiFi-Avatare auch in Blender bearbeitet, bzw. neu erstellt werden.

Quelle: High Fidelity
Ein weiteres Projekt kommt von AI_Austin (in RL: Austin Tate) und beinhaltet einen virtuellen Arbeitsraum für HiFi-Avatare. Dieses Projekt mit dem Namen I-Room ist recht umfangreich und vor allem ziemlich global. Sogar Mitarbeiter der European Aeronautic Defence and Space Company (EADS) sind daran beteiligt. Man will unter anderem für wissenschaftliche Nutzung den Umgang mit sehr großen Mesh-Objekten in HiFi ermöglichen. Das Foto hier rechts zeigt ein Modell mit 575.000 Eckpunkten und 200.000 Flächen. (Obwohl das für mich eher nach Pillepalle aussieht. Aber man sieht ja nicht, wie das Meshgitter tatsächlich aufgebaut ist.)

David Rowe, der Entwickler des CtrlAltStudio Viewers, arbeitet ebenfalls an einem Projekt für HiFi. Er schreibt ein Skript, dass den Leap Motion Controller nutzen soll, um die Hände eines HiFi-Avatars zu steuern. Und zwar nicht nur in Form von Gestenerkennung, sondern so detailliert, wie es sonst nur mit einem Datenhandschuh geht, also jeder Finger wird einzeln erkannt. Der Vorteil von Leap Motion ist, dass man kein Gerät am Körper tragen muss.

Quelle: High Fidelity
Mehr wurde im HiFi-Blog nicht geschrieben. Allerdings gab es am Donnerstag dann noch auf New World Notes einen Artikel zu einer weiteren Funktion, an der man bei HiFi gerade arbeitet. Und zwar nennt sich das "Avatar Playback". Damit kann man die Bewegungen des eigenen Avatars aufzeichnen und das Ergebnis später wieder abspielen lassen. Entweder erneut am eigenen Avatar oder an einem NPC (auch Bot genannt). So lassen sich dann zum Beispiel in der selben Szene verschiedene Avatare nacheinander aufnehmen, um dann am Ende eine große Gruppe individueller Avatare simulieren zu können, die alle auf einmal agieren. So etwas Ähnliches geht zwar heute mit dem SL Viewer auch schon, aber immer nur mit einem Avatar und nicht mit beliebig vielen.

Links:

Quellen:

Keine Kommentare:

Kommentar veröffentlichen