ein Anstatt flache Bilder der Kleidung mit dem Körper des Subjekts zu verwenden, verwendet ihre Lösung vollständige 3D-Modelle der Kleidungsstücke, um den gewünschten Effekt zu erfüllen. Diese Technik ermöglicht es ihnen, die Lebenserfahrung mehr treuer zu erzeugen, wo die Kleidungsstücke mit dem Thema einhalten, das natürlich mit den Bewegungen des Benutzers fließt.
Wie viele andere Kinect-Hacks nutzen sie OpenNI sowie Nite, um Skelettdaten vom Sensor zu erwerben. Die Anwendung selbst wurde in c # mit Microsofts XNA-Spiel-Förderwerkzeugen verfasst, sowie ein spezielles Physik-Motor, um das simulierte Tuch auf sinnvolle Weise zu rendern
[Lukasz] besagt, dass das System immer noch in den Kinderschuhen ist, ebenso wie viel Arbeit, bevor sie mit den Ergebnissen völlig zufrieden sind. Von wo aus wir sitzen, ist das nachfolgend eingebettete Demo-Video recht ordentlich, auch wenn es etwas rau ist, um die Kanten herumzusehen. Wir freuen uns besonders, dass die native Kinect-Schnittstelle von Xbox in einem DIY-Projekt zusammenarbeitet, und wir sind eher daran interessiert, genau zu sehen, wie die Dinge aussehen, wenn sie die endgültigen Berührungen darauf legen.
[Vimeo http://vimeo.com/25933286 w = 470]