Registerkarten

SimtippViewerServerKunstLL-BlogVideosVehikelAnleitungSansarARC

Donnerstag, 11. Juni 2015

High Fidelity: Fortschrittsbericht Q2 2015

Quelle: High Fidelity
Am 9. Juni hat Philip Rosedale im High Fidelity Blog einen Fortschrittsbericht für das zweite Quartal 2015 veröffentlicht. Dies soll nun regelmäßig zu jedem Quartal wiederholt werden. Wer sich noch an die Zeit mit Philip als CEO von Linden Lab erinnert, dem werden dieses Quartalsberichte irgendwie bekannt vorkommen.

Da ich nach wie vor der Ansicht bin, dass High Fidelity als Plattform für eine virtuelle Welt Potential hat, gibt es nun eine Zusammenfassung des Quartalsberichts, in dem auch sechs relativ neue Videos eingebettet wurden.

In den ersten sechs Monaten dieses Jahres wurden mehrere neue Mitarbeiter eingestellt, die das HiFi-Team gut ergänzen. Es werden auch noch weitere Mitarbeiter gesucht. Einen Überblick zu den Stellenausschreibungen bekommt man hier.

Die Alpha Version der Plattform hat seit ihrem Start am 1. April 2015 viele Verbesserungen erhalten, vor allem in Richtung gemeinsame Nutzung der VR-Ressourcen mit Hilfe von Open Source Software. Ebenso ist die Liste der High Fidelity Server weiter angewachsen.



Erstellen eines Servers in wenigen Minuten
Mit dem neuesten Stack Manager kann man seine eigene VR-Umgebung in wenigen Minuten erstellen, benennen und andere Nutzer einladen, sie zu besuchen. Ebenso lassen sich zwischen verschiedenen Servern Hyperlinks anlegen, so dass man mit dem Avatar ohne Umwege von einer zur anderen Umgebung gelangt. Als nächster Schritt ist eine Erweiterung geplant, bei der man die Ressourcen des eigenen Servers mit anderen Nutzern teilen kann, wenn diese mehr Kapazität benötigen.



Gesichtsausdruck und Kopfbewegung mittels einer Webcam erkennen
Inzwischen können für die Erkennung von Gesichtsausdruck und Kopfbewegung ganz normale 2D-Webcams verwendet werden, wie sie zum Beispiel in Gehäusedeckeln von Notebooks eingebaut sind. Diese ergänzen die bisher schon für dieses Verfahren verfügbaren 3D-Webcams und VR-Brillen, so dass nun nahezu jeder Avatar diese Funktionen nutzen kann. Hier sind die nächsten Schritte nun die Erkennung der Blickrichtung für direkten Augenkontakt unter Avataren und eine bessere Unterstützung von Handgestik, so dass man besser mit dem gesamten Avatar gestikulieren kann.



Web-Objekte in 3D
Es ist jetzt möglich, Webseiten in HiFi auf Oberflächen von Objekten darzustellen (das, was wir in SL "Media on a Prim" nennen). Auch hier wird die Seitennavigation mittels Maus unterstützt. Die nächsten Updates sollen sich um Shared-Browsing drehen. Ich weiß nicht genau, was damit gemeint ist, aber ich vermute, es soll ermöglicht werden, dass mehrere Avatare gleichzeitig den Inhalt der gleichen Webseite steuern können, ähnlich einem MS Live Meeting mit Shared Desktop Übergabe.



Skyboxen und dynamisches Licht
Man kann jetzt bereits verfügbare Skyboxen mit Hintergrundpanoramen zu seiner Umgebung hinzufügen und mit sphärischem, harmonischem Licht ausleuchten. Dabei lässt sich das Licht optional mit dem RL Tag- und Nachtrhythmus synchronisieren. Ebenso lassen sich innerhalb der selben Domain (Webadresse der Server eines Betreibers) verschiedene Lichtzonen einrichten. Die nächsten Schritte werden hier die Unterstützung von Transparenz und von komplexen Animationen sein.



Content teilen
Zusätzlich zu der Möglichkeit, seine eigenen 3D-Objekte in verschiedenen Formaten (FBX, OBJ) hochzuladen, gibt es einen Marketplace, von dem man einfach Objekte mit Drag & Drop in seine Umgebung ziehen kann. Natürlich kann man auch seine eigenen Objekte auf dem Marketplace hochladen und anderen zur Verfügung stellen. Hier soll nun als nächstes die Möglichkeit entstehen, Objekte auf dem Marketplace auch zu verkaufen und zu kaufen. Denn bisher ist alles auf dem Marketplace noch kostenlos, da ein Bezahlsystem fehlt. Es sollen dann auch Zuordnungsattribute unterstützt werden. Damit kann man z.B. Artikel auf dem MP verkaufen und das Geld (oder einen Anteil davon) einem anderen Avatar zukommen lassen.



Dezentralisierte Physik mit JavaScript
Die HiFi-Entwickler haben damit begonnen, auf der Grundlage der Open Source Software Bullet Physikengine das Problem mit Multiplayer-Physik zu lösen. Das bedeutet, geringe Latenzzeiten für Interaktionen bei gleichbleibenden Bedingungen zwischen mehreren Beteiligten. Ein Beispiel ist hier ein Billardtisch, bei dem es mehrere Kollisionen gibt und Objekte ihre Positionen verändern. Die geringe Latenz ermöglicht dann die realistische Bewegung der Kugeln und die gleichbleibenden Bedingungen wären, dass jeder rund um den Billardtisch nach dem Ende der Ballbewegungen das gleiche Bild auf dem Tisch sieht. Und das ist (generell) ein Problem in virtuellen Welten.

Die Lösung ist dann eben die dezentrale Berechnung der Physik. Jeder beteiligte Avatar rechnet die Physik lokal auf seinem Rechner, aber der, der für die Bewegung verantwortlich ist, hat die Hoheit für den Ablauf und gibt diese Informationen an den lokalen Rechenprozess der anderen Teilnehmer weiter. Auf diesem Weg will man in HiFi sehr umfangreiche Physik in großen Umgebungen ermöglichen, die weitgehend lagfrei abläuft. Als nächster Schritt wird hier die Einführung von Avataren mit Softbodies genannt. Damit kann man zum Beispiel Schwertkämpfe machen und wenn die Schwerter beider Avatare aufeinanderprallen, wird das physiktechnisch auf die Arme übertragen, so dass diese positionell korrekt zum Schwert verharren.

Abschließend schreibt Philip Rosedale, dass die von HiFi genutzte Apache 2.0 Lizenz ebenfalls Open Source ist und auf Github heruntergeladen werden kann. Ebenso kann man dort eigene Vorschläge für Änderungen einreichen. Es gibt auch eine Liste von Auftragsarbeiten, die bezahlt werden. Wer sich mit der Materie gut auskennt, kann unter worklist.net schauen, ob sich etwas Geld verdienen lässt.

Quelle: Progress Report, Q2 2015

Alles für den Start mit High Fidelity:

Links:

Keine Kommentare:

Kommentar veröffentlichen