Als Hauptthema habe ich heute nichts über Second Life, sondern etwas zum neuen Projekt von Philip Rosedale, der offenbar an einem "Second Life 2" arbeitet, das zu unserem SL allerdings nicht mehr kompatibel sein wird. Eine 10 Jahre alte Technologie lässt sich halt nicht ohne weiteres mit den neuesten Entwicklungen verheiraten. Da macht ein grundsätzlich neuer Ansatz schon Sinn. Sollte dieses Projekt in einigen Jahren erfolgreiche Ergebnisse vorweisen, könnte es tatsächlich Second Life ablösen.
Eine lustige Geschichte, die ihren Ursprung schon vor über zwei Wochen hatte, ist mein Bericht zur 3D Mandelbrot-Region auf LEA 27. Erst dachte ich, dass ein Spambot diese Seite ständig besucht, weil die Seitenaufrufe ungewöhnlich hoch waren. Doch dann habe ich mal genauer in die Statistiken geschaut und gesehen, dass fast alle Besucher über die Google-Suche gekommen sind, und zwar durch Eingabe von "3d mandelbrot". Irgendwie stuft Google meinen Bericht ziemlich hoch ein, so dass er unter den ersten paar Treffern auftaucht. Ich schätze, dass die meisten Besucher die über diesen Google-Link gekommen sind, mit SL nichts zu tun haben oder es noch nicht mal kennen. Und ich hoffe, dass sich vielleicht ein paar in SL eingeloggt haben, um sich das aus meinem Bericht mal anzusehen. :)
Zum Schluss möchte ich noch eine Aussage von Nalates Urriah zitieren, die sie in ihrem Artikel zu den Drax Files gemacht hat. Auf die Frage von Zander Green, warum die RL-Presse nicht mal den Aspekt der zwischenmenschlichen Interessen in Second Life aufgreife, sagte Nalates: "Journalisten sind wenig informierte Leute, die nicht viel wissen. [...] Second Life ist technisch zu kompliziert für die meisten Journalisten". Dem kann ich nur zustimmen. Es kommt so gut wie nie vor, dass ich bei einem Artikel eines größeren Verlages auch nur annähernd den Eindruck habe, dass der Autor wenigstens minimal weiß, worüber er schreibt.
Und nun mein Rückblick auf die Webwoche:
Kalenderwoche 16 / 2013
Quelle: Daniel Voyager's Blog |
Am Dienstag veröffentlichte Daniel Voyager in seinem Blog eine Pressemitteilung zur Bay City Fashion Week 2013. Sie läuft vom 20. bis 29. April auf der Region "North Channel" , der Teil des Bay City Mainlands ist.
Zu sehen gibt es Kleidung und Avatar-Zubehör aus den Jahren 1940 bis 1965 im Stil amerikanischer Großstädte, was auch dem allgemeinen Thema von Bay City entspricht. Gemeldete Aussteller der Fashion Week sind: Schadenfreude, Sonatta Morales, Misha Kerang Designs, FIN, Robin (Sojourner) Wood, Eclectica, Volstead, 1-800-BETTIES, Ingenue, Purplemoon Creations, Rhapsody, Vita Bella, Delicate Sensibilities und Pure Poison.
Quelle: Bay City Fashion Week 2013, Press Release 2
Und weiter gehts nach dem Link:
Quelle: Geenzian Science |
Bereits letzten Sonntag hat Geenz Spad, der Entwickler der viewerseitigen Unterstützung des neuen Materialsystems in Second Life, einen Blogpost geschrieben, der sich mal nur auf die Möglichkeiten der neuen Texturen in SL konzentriert. Dies sind die wesentlichen Eigenschaften des neuen Materials für SL:
- Normal Maps
- Specular Maps
- Specular Color
- Specular Exponent
- Environment Intensity
- Alpha Masking (aka: "Alpha Cutout" oder "Alpha Testing")
- Alpha Mask Cutoff
- Emissive Mask
Nachfolgend erklärt Geenz die Funktionsweise einiger dieser Eigenschaften. Außerdem sagt er auch, dass die Unterstützung von Alpha-Kanälen (Alpha Blending, Alpha Masking) im Viewer noch erweitert werden wird, so dass auch Halbtransparenzen mit Alpha Masking möglich sein werden. Damit lässt sich unter anderem auch dieses typisch Flackern bei Überlagerungen von Alpha-Texturen vermeiden, da die Sortierung beim Masking anders abläuft, als beim Blending.
Quelle: Second Life Materials: What’s a Material? A Second Life Content Creator’s Guide
In einem weiteren Blogpost hat Geenz dann noch Programme vorgestellt, mit denen man die für SL benötigten Texturen zum Materialsystem erstellen kann.
Quelle: High Fidelity / Facebook |
Vor zwei Wochen hatte ich im Wochenrückblick das neue Projekt "High Fidelity" von Philip Rosedale vorgestellt. Zu dieser Zeit war es noch Spekulation, dass es sich dabei um eine neue virtuelle Welt mit Voxel-Technologie handelt.
Am 16. April hat Philip nun den offiziellen Start von High Fidelity bekanntgegeben und gleichzeitig bestätigt, dass das Ziel dieses Projekts die Entwicklung einer neuartigen Virtual-Reality Plattform ist. In den wenigen Infos die Philip gibt, erfährt man unter anderem, dass die neue Plattform Audio- und Video-Unterstützung haben wird. Er spricht vom größten Abenteuer überhaupt und dass das Ergebnis einen großen Einfluss auf die reale Welt haben könnte, sofern man alle "unglaublich schwierigen" technischen Herausforderungen lösen könne.
In den nächsten Tagen und Wochen will man noch viele Informationen bekanntgeben, da man generell offen sein will in Bezug auf das, was man mit High Fidelity vorhat und warum man es überhaupt versucht. Außerdem sucht Philip für sein neues Projekt verschiedene Mitarbeiter, die entweder kleine Einzelaufgaben übernehmen, wie das Programmieren von Teilen der Benutzerschnittstelle, oder auch als Vollzeit-Mitarbeiter in Form eines Software-Entwicklers für Computergrafik. Wir dürfen also gespannt sein, ob Philip (wie einst 1999) wieder eine Idee umsetzen wird, die technisches Neuland betritt und einen Medien-Hype auslöst.
Ganz erstaunlich ist auch ein Blick auf die bisherigen Investoren von High Fidelity. Wenn man auf der Company-Seite ganz nach unten scrollt, kann man die Namen True Ventures, Google Ventures, Mitch Kapor und Linden Lab lesen. Nun erhält auch der Kommentar von Rod Humble aus dem letzten Jahr einen tieferen Sinn, denn da sagte er: "Wir investieren immer noch in virtuelle Welten...". Damit ist für mich klar, dass LL langfristig SL durch eine modernere Technologie ablösen will, denn zwei virtuelle Welten in der Größe von SL zu betreiben, wäre schlicht Fehlmanagement. Allerdings dürfte es bis dahin noch ein paar Jahre dauern. :)
Links:
- High Fidelity auf:
- Email Liste
Quelle: Announcing High Fidelity!
Zu diesem Thema gibt es fast dauernd neue Meldungen. In einem neuen Blogpost von Rosedale stellt er die prinzipielle Technik vor, mit der man bei High Fidelity das Avatar-Gesicht animieren möchte. Dabei sollen über eine Kamera die Kopfbewegungen und Gesichtsmimik des Bedieners erfasst und übertragen werden. Das Demo-Video sieht zwar noch sehr hölzern aus, aber es soll auch nur das Prinzip demonstrieren:
Quelle: Bringing the Avatar to life
Den Vogel hat für mich Will Burns vom Anromeda Blog abgeschossen. Er beschuldigt Philip Rosedale, dass dieser die komplette Idee und Technologie für High Fidelity von ihm geklaut hätte. Als Beweisführung verlinkt er auf einige alte Blogposts und Shares, in denen er das Thema in der Vergangenheit angeschnitten hatte. Am Ende sagt er dann in Richtung Philip, dass die Technologie eine Menge Fallen enthalte, die er öffentlich niemals erwähnt habe. Deshalb wünscht er Philip viel Glück beim Lösen dieser Probleme, was seiner Meinung nach ohne Unterstützung von ihm nicht möglich sein wird.
Für mich liest sich Burns Artikel so, als ob er sich ärgert, nicht selbst etwas wie High Fidelity gestartet zu haben. Und heutzutage ist es fast überall so, dass eine Neuentwicklung irgendwann von irgendwem schon einmal beschrieben wurde. Solange diese Gedanken nicht auf dem Rechtsweg geschützt wurden, kann man andere nicht beschimpfen, wenn sie etwas Ähnliches dann umsetzen.
Quelle: Are you High?[Fidelity]
Quelle: kueperpunk 2012 |
Am letzten Montag hat Kueperpunk ein paar Gedanken in seinem Blog gepostet zum Thema Second Life, Avatare, die Menschen dahinter und das Sterben eben dieser. Ist die Trauer um einen Menschen, den man nur über seinen Avatar kennt, kitschig oder genauso real, wie die Trauer um einen Menschen aus dem RL-Umfeld? Ich fand diese Gedanken lesenswert.
"In den Jahren, die ich mich nun mit Metaversen wie SecondLife befasse, bin ich leider mehrmals mit dem Tod der steuerenden Person hinter einem Avatar konfrontiert worden. Als wir an unseren ersten Heimcomputern von virtuellen Welten träumten hatten wir natürlich nicht daran gedacht, dass wir dann älter sein würden.>> weiterlesen über den Quellenlink
Über die Memorials und Gedenkkonzerte für Sabrinaa Nightfire und Jeanette Janus habe ich hier auch berichtet..."
Quelle: SecondLife und das reale Lebensende...
Quelle: Linden Lab auf YouTube |
Auf eine offizielle Pressemitteilung hat Linden Lab diesmal verzichtet. Auf der Creatorverse Homepage wurden die Infos jedoch aktualisiert.
Die Vollversion von Creatorverse wird nun kostenlos für alle mobilen Geräte angeboten, inklusive Zugriff auf die Datenbank mit den bereits existierenden Anwendungen anderer Nutzer. Dies gilt für Tablets und Smartphones mit iOS, Kindle Fire und Android Betriebssystem.
Spezielle Erweiterungspakete für Creatorverse, die Motoren, Raketen, Teleporter, usw. enthalten, können dann innerhalb der App zugekauft werden. Alle Anwender, die bereits Creatorverse für 4,99 US$ gekauft hatten, erhalten eines dieser Erweiterungspakete kostenlos.
Creatorverse runterladen auf:
- Google Play - (Android)
- Apple App Store - (iOS)
- Amazon Appstore - (Kindle Fire/HD)
Quelle: Creatorverse Homepage
Allgemeine Infos bei mir im Blog:
Quelle: Nalates' Things & Stuff |
Meldungen aus den inworld Meetings
Nyx und Oz Linden haben beide betont, dass das Rollout des serverseitigen Avatar Baking eine längere Zeit in Anspruch nehmen wird. Dies ist auch davon abhngig, wann die TPVs (alternative Viewer) bereit sein werden, mit SSAB umzugehen. Nalates erwartet die Aufspielung auf die ersten RC-Regionen noch im April und den Abschluss der Einführung auf dem gesamten Grid gegen Ende Mai. Nach der kompletten Einführung werden einige alte Viewer (Phoenix, Imprudence, Kirstens S22, LL Viewer 1.23) nur noch graue Avatare in SL anzeigen.
Es gab auf dem Server & Scripting Meeting am letzten Dienstag eine längere Diskussion über Fehler, die bei Regionswechslen auftreten können. Insgesamt kamen jedoch wenig hilfreiche Infos dabei heraus. Simon Linden sagte folgendes: Einen Einfluss auf den glatten Verlauf eines Regionswechsels haben die am Avatar getragenen Skripte und die Menge der Prims und Meshes. Letzteres gemessen an der Größe des Datenvolumens. Ebenfalls einen Einfluss hat die Qualität der Internetverbindung und Netzwerklast, die gerade im Augenblick des Grenzübergangs herrscht. Keinen Einfluss hat dagegen die Geschwindigkeit, mit der man einen Regionswechsel durchführt. Der Simulator, in den man eintritt, berechnet in jedem Fall den weiteren Weg des Avatars und dessen Vehikels, auch wenn er optisch feststeckt oder wegdriftet. Es kommt einem bei hohem Tempo nur schlimmer vor, weil der Rücksprung auf die eigentliche Avatarposition bei Wiederaufnahme der korrekten Anzeige eben viel größer ist, als bei geringem Tempo.
Das Problem, dass einige Nachbarregionen nicht sichtbar sind, wenn man mit der Viewerkamera auf sie schaut (vor allem diagonal angrenzende Regionen) besteht weiterhin und wurde bisher noch nicht behoben.
Auf der Weapons Sandbox von Linden Lab, die zum Testen von Waffen- und Kampfsystemen in SL genutzt werden kann, ist aktuell die Funktion von Skripten ausgeschaltet. LL sagte dazu zwar nichts, aber Grund war wohl eine härtere Griefer Attacke.
Es gibt ein Problem mit Objekten, die sich zwischen Koordinate 255 und 256 am Rand einer Region befinden und zum Teil in die Nachbarregion hineinragen. Diese lassen sich teilweise nicht an den Besitzer zurückschicken (Return oder Auto-Return). Die Rolling Restarts der RC-Regionen vom letzten Mittwoch enthielten einen Fix dafür. Bis das Problem auch auf den restlichen Hauptkanal-Regionen behoben ist, dauert es noch bis zum nächsten Dienstag.
Nachdem der Code für das serverseitige Avatar Baking vom Beta Viewer in den offiziellen SL-Viewer übernommen wurde, will man sich als nächstes um das Problem mit instabilen Audiostreams kümmern. Dazu soll das FMOD EX Modul im Viewer aktualisert werden, dass sich um den Stream kümmert. Sehr wahrscheinlich wird das Update schon in der kommenden Woche in den Beta Viewer einfließen, da laut Oz Linden das SSAB ebenfalls in dieser Woche schon in den offiziellen Viewer übernommen werden soll.
Quellen:
Material Viewer Infos
Den Blogpost von Geenz Spad über die Einsatzmöglichkeiten für Materialtexturen, habe ich schon weiter oben separat vorgestellt. Deshalb hier nur noch ein paar Extras zum Stand des Projekt Viewers:
Für die einzelnen Versionen des Material Viewers gibt es eine Release Notes Seite in der SL-Wiki. Wer sich informieren will, was alles geändert wurde, sollte hier nachschauen:
Auf Bitbucket gibt es auch einen Repository-Verlauf für alle, die sich mit den Codepaketen des Viewers auskennen:
Seit Einführung des Material Viewers gab es schon mehrere Updates. Dieses Projekt kommt also gut voran und fast alle, die das Materialsystem ausprobiert haben, sind mit den Ergebnissen recht zufrieden.
Geenz hat inzwischen die Unterstützung von Alpha Blending für Normal Maps hinbekommen. Nun will er dies auch bei den Specular Maps umsetzen.
Quelle: SL Materials System Update 2013-16
Mesh Deformer Infos
Es wurde schon öfter berichtet, dass der Mesh Deformer bei Kleidung mit vielen Polygonen (Highpoly Mesh) relativ lange braucht, bis die Berechnung der Anpassungen an den Avatar Shape abgeschlossen ist. In der MetaReality Podcast Sendung vom 12. April hat Qarl Fizz, der Entwickler des Deformers, sich mal dazu geäußert. Es gab in der JIRA den Vorschlag, die berechneten Daten des Deformers auf einem Server zu cachen und von dort an die Viewer zu schicken. Evtl. könnte man die Berechnungsmatrix zusammen mit dem zugehörigen Kleidungsstück auf den Servern speichern, die auch das serverseitige Avatar Baking in Zukunft übernehmen werden.
Qarl sagte daraufhin, dass dies eine schlechte Idee sei. Die Datenmenge der Deformer Berechnungen sei sehr groß. Sogar größer, als die Dateigröße der eigentlichen Meshkleidung. Qarl ist der Ansicht, dass es Möglichkeiten gebe, die Berechnung auf der Viewerseite zu beschleunigen, jedoch müsste man dafür etwas Entwicklungsarbeit reinstecken. Letztendlich sind die teilweise langen Berechnungszeiten des Deformers auch abhängig von der Qualität der Meshkleidung. Gutes, polygonarmes Design berechnet der Deformer fast in Echtzeit, während mit Highpoly-Kleidung, die nicht oder kaum optimiert wurde, eben die langen Wartezeiten auftreten. Ein Caching der Berechnung auf den Servern wird es jedenfalls für den Deformer nicht geben.
Quelle: Mesh Deformer Update 2013-16
Quelle: New World Notes |
Auf New World Notes hat Wagner James Au am Mittwoch wieder das Thema Oculus Rift-Brille für virtuelle 3D-Umgebungen aufgegriffen. Einen ausführlicheren Bericht dazu hatte ich bereits hier geschrieben.
Wagner kann sich offenbar nicht entscheiden, ob die VR-Brille für Second Life nun geeignet ist oder nicht. In diesem Artikel empfiehlt er jetzt, dass Linden Lab Millionen von US-Dollar ausgeben sollte, um diese Brille für SL lauffähig zu bekommen. Alles in allem wird ansonsten nicht viel Neues im Artikel erzählt. Allerdings enthält der Beitrag auch ein Video von den Eindrücken, die die 90-jährige Rachel Mahassel mit der Oculus Brille hatte. Wer das Video noch nicht gesehen hat, sollte sich das mal geben. So lustig wäre ich auch noch gern mit 90 Jahren. :)
Nachdem das Video so gut eingeschlagen hat, gab es noch eine kleine Fortsetzung mit der symbolischen Verleihung eines "YouTube Celebrity" T-Shirts für Rachel Mahassel. Wirklich rührend:
Quelle: Watch This Video to See Why Linden Lab Should Spend Millions Getting Second Life...
Quelle: Wikipedia |
Die 3D Software "MakeHuman" hat seine Lizenzen, was die Verwendung der damit erstellten Avatar-Modelle angeht, sehr stark gelockert. Im Grunde darf man jetzt mit den Modellen so ziemlich alles machen und sie beliebig weiterverwenden, inklusive kommerzieller Nutzung.
Ich habe diese Software inzwischen auch mal ausprobiert. Für einen Mesh-Avatar in SL ohne geriggte Kleidung ist MakeHuman ganz gut geeignet. Lediglich bei der Größe des Avatars nach dem Import in SL habe ich noch so meine Schwierigkeiten (ist immer zu groß).
Bei den Avataren mit Kleidung sollte man das exportierte Modell allerdings in Blender nachbearbeiten. Denn bei MakeHuman werden scheinbar einige Flächen der Meshkleidung von innen nach außen geflippt, was dann komisch aussieht.
In der nächsten Version wird es ein neues Morphing System für Avatare geben, wofür auch ein neues Avatar-Mesh erstellt wurde.
Quelle: Explanation of new license terms
Eigener Screenshot |
Am 16. April gab es eine Update-Meldung im Cloud Party Blog. Demnach will man nun jeden Freitag im Blog über die neuen Entwicklungen von Cloud Party berichten und Ankündigungen für kommende Funktionen machen.
Im Wesentlichen will man sich für den Rest des Jahres um das Wachstum der Nutzerbasis bemühen und Funktionen einführen, die das unterstützen. So wurde zum Beispiel letzte Woche eine Suchfunktion für Avatarnamen im Kontakte-Fenster dazu gebracht. Eine chronologische Liste der letzten Änderungen für Cloud Party findet man auf der folgenden Seite:
Quelle: Weekly Update 04.16.2013
Mein Video der Woche
Mein heutiges Video wurde am letzten Montag auf YouTube hochgeladen und zeigt einfach nur die Arbeit eines Schuhputzers aus Illinois im Jahr 1930. Die Umsetzung finde ich ziemlich gelungen. Nette Kleinstadt-Region, behutsame Kamerafahrten und witzige Musik. Einfache Story, aber gutes Video.
Shoeshine Man
Keine Kommentare:
Kommentar veröffentlichen