Video: Achin Bhowmik: Interactive experiences with perceptual computing (November 2024)
Tastaturen und Mäuse eignen sich hervorragend, wenn Sie einen Bericht eingeben oder Daten in eine Kalkulationstabelle eingeben. Bei Anwendungen der nächsten Generation ist es jedoch wesentlich wahrscheinlicher, dass sie durch Sprach- oder Gesteneingabe gesteuert werden. Dies haben wir bereits teilweise bei der Spracherkennung in Anwendungen wie Apples Siri und Google Now sowie bei der Gestenerkennung in Produkten wie Microsoft's Kinect und einer Kombination aus beidem auf der kommenden Xbox One gesehen.
Bisher haben wir nicht viel davon mit Ihren Standard-PC-Anwendungen gesehen. Microsoft bietet Kinect für Windows und ein SDK an, aber wir haben noch keine umfassende Verwendung davon gesehen. Leap Motion zeigt eine Kamera mit Anwendungen in Kürze. Intel versucht nun, diesen Markt zu fördern, indem es Entwicklern ein kostenloses Perceptual Computing SDK 2013 und ein Perceptual Computing Kit im Wert von 149 USD anbietet, das eine Creative Interactive Gesture Camera mit dem SDK kombiniert. Ich habe in letzter Zeit ein wenig Zeit damit verbracht, mit dem Kit zu spielen, und obwohl es eindeutig für Entwickler und nicht für Endbenutzer entwickelt wurde, ist es auf jeden Fall faszinierend.
Intels Perceptual Computing Kit
In diesem Kit, das letztes Jahr auf dem Intel Developers Forum vorgestellt wurde, kombiniert die Kamera eine herkömmliche 2D-Kamera mit einem IR-Sensor, um eine Tiefenverfolgung zu ermöglichen. Das SDK umfasst Spracherkennung, Gesichtserkennung, Tiefenverfolgung aus nächster Nähe und Augmented Reality. Entwickler sollten in der Lage sein, Nutzungsmodi zu kombinieren. In der Praxis konzentrieren sich jedoch fast alle mit dem Kit gelieferten Beispielanwendungen auf die Verfolgung von Mustern und Tiefen, wobei sie sich im Wesentlichen auf Hand- und Körperbewegungen stützen, um diese zu steuern.
Ich habe das Kit und mehrere Beispielanwendungen ausprobiert, und einige Dinge schienen gut zu funktionieren. Dazu gehörten vorprogrammierte Handgesten in einer Reihe von Anwendungen, darunter einige komplexe in einem Spiel namens Kung Pow Kevin von Fingertapps, bei dem ein Muster solcher Gesten befolgt wird. Einige der Beispielanwendungen erwiesen sich jedoch als etwas frustrierend, da sie entweder die Gesten nicht erkannten oder viele Handbewegungen erforderten, um etwas zu tun, das Sie mit einer Maus viel einfacher hätten tun können. (Keine der Anwendungen verwendet Voice, was in manchen Situationen eine gute Alternative gewesen sein könnte.)
Das SoftKinectic-Sonnensystem ist ein schönes Beispiel für eine Oberfläche, mit der Sie sich durch die Planeten bewegen können, obwohl der Inhalt relativ gering ist. Das Ballista-Spiel der gleichen Firma scheint ein gestengesteuerter Cousin von Angry Birds zu sein, aber es dauerte eine Weile, bis man sich an die Gesten gewöhnt hatte. A Million Minions von Naked Sky war ein interessantes interaktives Kinderspiel, aber manchmal fiel es mir schwer, die richtigen Gesten zu machen. Auch hier handelt es sich nicht um Endprodukte. Interessanter sind also die Konzepte.
Während des Testens habe ich festgestellt, dass Handgesten zwar cool sind, es jedoch etwas anstrengend sein kann, sie wiederholt zu verwenden, um Dinge zu tun, die Sie auf andere Weise tun könnten. Darüber hinaus nimmt die relativ kleine Reichweite der Kamera die meisten Bewegungen erst nach etwa einem Meter auf. Das wäre in Ordnung für eine Produktivitäts-App, scheint aber nicht für Spiele- oder Fitness-Apps geeignet zu sein, so wie die Bewegungserkennung auf dem Kinect verwendet wurde.
Offensichtlich ist dies eine laufende Arbeit. Intel führt eine Perceptual Computing Challenge durch, um Entwickler dazu zu bringen, Dinge mit dem SDK zu erstellen. Zu den Gewinnern zählen die Spracherkennung und Augmented Reality - zwei Dinge, die unsere Erfahrung mit dem Gerät möglicherweise verbessert haben.
Intel gab letzte Woche auf der Computex bekannt, dass die Creative Senz3D-Kamera im dritten Quartal zusammen mit einem kostenlosen Perceptual Pack für Portal 2 erhältlich sein wird, mit dem Benutzer das beliebte Spiel mit Gesten steuern können. Außerdem wird an einer eigenen 3D-Kameratechnologie für Ultrabooks für Ende 2014 gearbeitet. Darüber hinaus kündigte Intel an, einen Fonds in Höhe von 100 Millionen US-Dollar für Investitionen in Perceptual Computing zu schaffen. Lenovo und Dell arbeiten angeblich mit der Intel-Kamera, während HP kürzlich einen Vertrag mit Leap Motion angekündigt hat.
Alternativen zu Microsoft und Leap Motion
Das Perceptual Computing Kit kostet 149 US-Dollar, richtet sich jedoch an Entwickler und nicht an Endbenutzer. (Creative muss noch den endgültigen Preis für die Consumer-Version des Senz3D bekannt geben). Ich würde sagen, dasselbe gilt für Kinect für Windows mit einem Listenpreis von 250 US-Dollar. Beachten Sie, dass die aktuelle Kinect im Vergleich zur Creative-Kamera, die einen relativ kleinen Tiefenbereich bietet, eine etwas bessere Kamera (1280 x 960) und eine größere Reichweite (bis zu 10 Fuß) aufweist. Microsoft kündigte vor kurzem seine Pläne für eine neue Version von Kinect für Windows für das nächste Jahr an. Dies dürfte mit dem kürzlich angekündigten Kinect 2 für Xbox One vergleichbar sein, das über eine 1080p-Farbkamera und ein erweitertes Sichtfeld verfügt.
Für ein Konsumentenprodukt ist der Leap Motion-Controller mit einem Preis von 79, 99 US-Dollar auf die Tiefenverfolgung im Nahbereich ausgerichtet, aber immer noch faszinierend. Leap verspricht einen neuen Hub für Controller-basierte Anwendungen namens Airspace, der nächsten Monat verfügbar sein wird. Interessanterweise hat HP angekündigt, den Leap Motion-Controller ab Ende dieses Jahres mit mehreren PCs zu kombinieren. Es scheint eine kostengünstige Möglichkeit für Verbraucher zu sein, die Technologie auszuprobieren.
Momentan scheint die Bewegungserkennung vor allem für Spiele eingesetzt zu werden - andere Anwendungen sind etwas unzuverlässig. Intel, Microsoft und Leap Motion scheinen jedoch alle davon überzeugt zu sein, dass diese Art der Benutzeroberfläche verschiedene Anwendungen verbessern kann und das Potenzial mit Sicherheit vorhanden ist. Es scheint mir, dass die ideale Schnittstelle der Zukunft Spracherkennung, Gesichtserkennung, Geste, Tiefe und Bewegung kombinieren muss, um zu funktionieren. Für Entwickler ist das heute eine größere Herausforderung, aber ich bin zuversichtlich, dass die Möglichkeiten durchaus interessant sein könnten.