Zuhause Eigenschaften Wie die Einheit ihre Zukunft auf ar, vr und ai aufbaut

Wie die Einheit ihre Zukunft auf ar, vr und ai aufbaut

Inhaltsverzeichnis:

Video: Creating Immersive AR with Unity 2019! (November 2024)

Video: Creating Immersive AR with Unity 2019! (November 2024)
Anonim

Unity ist die weltweit am weitesten verbreitete 3D-Entwicklungsplattform. Laut dem App Analytics-Unternehmen Apptopia sind 40 Prozent der 1.000 Top-Handyspiele und mehr als die Hälfte aller neuen Handyspiele damit ausgestattet. Zusammen mit der Unreal Engine untermauern die beiden beliebten Spiele-Engines die meisten Spieleerlebnisse im Web.

Der 3D-Entwicklungsraum ist jedoch weitaus überfüllter als früher, insbesondere wenn es um die Entwicklung erweiterter und virtueller Realitäten geht.

Unity fungiert als Baustein oder integriert sich in die meisten neueren AR / VR-Plattformen, einschließlich ARKit von Apple und ARCore von Google. Es ist jedoch auch mit Konkurrenzprodukten wie Amazon Sumerian und anderen Drag-and-Drop-Schnittstellen zu kämpfen, um die Benutzererfahrung zu vereinfachen weniger technische Schöpfer.

Um der Konkurrenz einen Schritt voraus zu sein und die Plattform für ein wachsendes Ökosystem neuer Geräte und 3D-Erlebnisse zu entwickeln, verfolgt Unity eine zweigleisige Strategie, die von den Divisionen AR / VR und AI geleitet wird. PCMag sprach mit Tony Parisi, dem globalen Leiter von VR / AR Brand Solutions bei Unity, und Danny Lange, dem Vice President für KI und Maschinelles Lernen bei Unity, über die Zukunft von Unity und darüber, wie die Plattform und die damit erstellten Spiele intelligenter werden du merkst es sogar.

    Blick der Einheit auf die AR / VR-Landschaft

    IDC prognostiziert, dass die Ausgaben für AR / VR-Produkte und -Dienstleistungen in diesem Jahr 27 Milliarden US-Dollar erreichen werden und der Markt nur von dort aus wächst. Parisi sagte, Unity möchte jede Plattform im Weltraum unterstützen.

    "Vor drei oder vier Jahren, bevor ich zu Unity kam, begann Unity erhebliche Investitionen in den aufstrebenden VR-Markt zu tätigen - Oculus Rift, HTC Vive, Samsung Gear VR usw. - mit dem Ziel, eine Art vollwertiges System für Entwickler zu entwickeln Sie müssen sich also nicht mit den Details befassen, wie diese Plattformen zu unterstützen sind ", sagte Parisi. "Wir sind an dem Punkt angelangt, an dem Sie die meisten Ihrer Anwendungen einmal schreiben und auf diese Geräte portieren können."

    Dies ist nicht allgemein gültig, sagte er, da eine App, die Sie für ein mobiles Viewer-Headset erstellen, etwas anders gestaltet wird als eine App, die für eine PC-basierte Erfahrung optimiert ist. Laut den internen Messdaten von Unity unterstützt die Plattform derzeit 69 Prozent der Oculus Rift-Erlebnisse, 74 Prozent der HTC Vive-, 87 Prozent der Gear VR- und 91 Prozent der MR-Erlebnisse (Mixed Reality) bei Microsoft HoloLens.

  • Arbeiten mit einem wachsenden Ökosystem

    Parisi arbeitet seit Mitte der 90er Jahre in der AR / VR und beschäftigt sich mit der 3D-Visualisierung. Er hat das VRML-Dateiformat und andere Spezifikationen, die WebGL zugrunde liegen, mitentwickelt und für mehrere andere VR-Unternehmen gearbeitet. Ende 2016 wechselte er zu Unity, um die Bereiche Werbung, Marketing und Strategie für AR, VR, MR und XR (Extended Reality) zu leiten.

    "Direkt nach dem Pokemon Go-Boom, bei dem es in gewisser Weise eher um die Lokalisierung ging, darum, irgendwohin zu gehen und ein Pokemon zu finden, und ein bisschen von der Kamera. Das ist ein Faktor, den wir weiter ausbauen. Es geht ebenso um die Lokalisierung." geht es um das Eintauchen ", sagte Parisi.

    Auf der AR-Front sprach Parisi darüber, wie Facebook und Snap mithilfe ihrer Entwicklerplattformen für Kameraeffekte und Lens Studio die Möglichkeiten entwickeln, mit Smartphone-Kameras die Umgebung um Sie herum abzubilden. Die Verbindung von Smartphone und Headset-basiertem AR ist ein Erlebnis wie das Star Wars: Jedi Challenges-Spiel, das ebenfalls mit Unity erstellt wurde und mit einem Smartphone in Kombination mit Lenovos Mirage AR-Headset funktioniert.

    Die nächste Welle sind Telefone mit AR-Betriebssystem-Unterstützung über Apples ARKit und Googles ARCore, sagte Parisi. Wie bei Amazon Sumerian arbeitet Unity bei der Erstellung von AR-Inhalten mit 3D-Tools mit Apple und Google zusammen. Unity dient auch als Grundlage für Open-Source-Google-Tools wie Tilt Brush und Blocks. Parisi stellt sich eine gemeinsame erweiterte Welt vor, die mobile Betriebssysteme umfasst.

    "Apple und Google sind beide großartige Partner. Wir haben enge Beziehungen zu ihnen, um diese Erfahrungen und XR-Inhalte mithilfe der 3D-Tools von Unity zu entwickeln und zu unterstützen", sagte Parisi. "Viele der demokratisierten Erstellungstools, die nicht für Programmierer oder Entwickler oder professionelle Designer gedacht sind, sind in unserer Engine integriert. Noch besser ist, dass Sie Blocks-Modelle oder Tilt Brush-Grafiken wie jede andere Software in andere Unity-Apps integrieren können das kommt in die Einheit."

    Auf der MR- und VR-Seite sind die großen Geräte- und Software-Player Oculus, HTC und natürlich Microsoft und das Windows Mixed Reality-Ökosystem. Unity entwickelt 3D-Apps für alle, aber laut Parisi verwischt Microsoft die Grenzen zwischen gemischter und virtueller Realität. HoloLens ist ein Mixed-Reality-Gerät, die Windows Mixed-Reality-Headsets sind jedoch VR.

    "Die Branche hat sich immer noch mit dem auseinandergesetzt, was wir alles nennen sollten", sagte Parisi. "Je nachdem, ob Sie Inhalte entwerfen, die sich digital mit der realen Welt vermischen, oder in eine vollständig immersive Welt eintauchen, stehen Sie vor unterschiedlichen Herausforderungen. In VR sind die Leistungsherausforderungen höher. Sie müssen eine vollständig synthetische Welt erstellen. Das bedeutet PC." VR-Headsets, die mit 90 Bildern pro Sekunde gerendert werden und die Leistung verbessern. Die gemischte Realität ist weniger intensiv, muss sich jedoch in Echtzeit an die gesamte Umgebung anpassen, die sie verarbeitet."

  • Die Evolution der Erstellung von 3D-Inhalten

    Unity ist ein demokratisiertes 3D-Erstellungswerkzeug für die Entwicklung von immersiven Inhalten. Es gibt Free-, Plus- und Pro-Versionen, die Sie für monatliche Abonnementgebühren kaufen können. Sie sind gebührenfrei. Also, was Sie mit Unity bauen, gehört Ihnen. Unity unterstützt derzeit den Aufbau von rund 30 verschiedenen Plattformen, von Smartphones und PC-Betriebssystemen bis hin zu einer Vielzahl von Spielesystemen, Smart-TVs und VR-Headsets.

    In jüngster Zeit wurde Unity verwendet, um eine breite Palette von immersiven Inhalten und Erfahrungen zu erstellen. Diese reichen von einer Sundance Film Festival-Reihe mit dem Titel Spheres, mit der der Zuschauer eine kosmische Kollision zweier schwarzer Löcher in VR erforschen kann, bis zu Disneys CocoVR-Spiel, das mit Hilfe von 360-Grad-Projektionen die Spieler in das Land der Toten des Pixar-Films entführt.

    Parisi sprach auch über die Verwendung von Unity, um unterhaltsame VR-Spiele wie Beat Sabre zu erstellen, und erweiterte Erfahrungen, einschließlich der MLB At Bat AR-App, mit der Baseball-Zuschauer ihre Smartphones auf das Spiel richten und Statistiken auf dem Bildschirm über den Spielern anzeigen können.

    Unity kann all diese Arten von Apps erstellen, aber es gibt eine Menge Nuancen, die beim Design berücksichtigt werden müssen. PC-basierte Funktionen sind leistungsfähiger und ermöglichen größere 3D-Modelle in reichhaltigeren Umgebungen. Mit Headsets wie Oculus Rift und HTC Vive können Sie außerdem Eingabesteuerungen sowie Positions- und raumskaliertes Tracking berücksichtigen. Parisi sagte, dass Sie für diese Art von App ein anderes Design benötigen als für ein Betrachtungserlebnis mit drei Freiheitsgraden auf einem Headset wie Google Daydream View. Es ist nicht so einfach wie ein Knopfdruck, aber Unity hat dafür gesorgt, dass die von Ihnen erstellten 3D-Inhalte von einem Gerät auf ein anderes verschoben werden können, ohne dass zu viel Neucodierung erforderlich ist.

    Neben Spiel- und Unterhaltungsanwendungen für AR / VR-Erlebnisse ist eine der Fragen, mit denen sich Unity in letzter Zeit befasst, die Verbesserung der 3D-Erstellungsumgebung für verschiedene Branchen, Qualifikationsstufen und Anwendungsfälle. Wie bei Low-Code-Entwicklungstools, die sowohl seriöse Programmierer als auch nicht-technische Benutzer zufriedenstellen sollen, sucht Unity nach Möglichkeiten, wie die Benutzeroberfläche, der Asset Store und der Rest der Plattform für verschiedene Unternehmenstypen und Benutzer geeignet sind, um ihre Kunden zu erweitern Base.

    "Wir haben uns diese verschiedenen Branchen angesehen, in denen AR und VR im Entstehen begriffen sind. Dies können Automobil-, Film-, Architektur-, Medizin- oder andere Organisationen sein, in denen Sie Software an Hunderttausende von Arbeitsplätzen vertreiben", sagte Parisi. "Es sind völlig unterschiedliche Welten, unterschiedliche Unternehmen, unterschiedliche Hintergründe und Produktionstools. Anfangs haben wir uns auf die Mobil- und Spieleindustrie konzentriert, da hier das Wachstum stattgefunden hat. Jetzt hat sich das Rad gedreht und der Zeitpunkt ist gekommen, um dieses Spielbuch zu nehmen und es zu bringen." für einige dieser anderen Branchen jetzt, weil die Welt B2B wird."

  • Aktuelle AR / VR-Einschränkungen

    Das größte Hindernis für die Verbreitung von MR und VR sei derzeit nicht der Mangel an Inhalten, sondern Hardware-Einschränkungen in Bezug auf Komfort und Portabilität im Vergleich zur Rechenleistung, so Parisi. Die anstrengende Reise des kommenden Magic Leap-Headsets dient als Lehrbuch-Fallstudie, in der versucht wird, einen Prozessor mit ausreichender Leistung auf einen Formfaktor zu verkleinern, der für den Massenverbrauch ausreicht.

    "Es ist eine Herausforderung, eine Mixed-Reality-Erfahrung zu schaffen, die funktioniert, wenn man durch das Wohnzimmer läuft, anstatt durch offene Straßen zu navigieren", sagte Parisi. "Wir sind an einem Punkt angelangt, an dem wir die Hardware noch immer durchlaufen, um den optimalen Punkt zwischen Rechenleistung und Portabilität zu finden. Mit einem VR-Headset können Sie sich so lange bewegen, bis Sie das Gefühl haben, dass der Draht hängen bleibt. Wir brauchen einen anderen." Die Art und Weise, diese Daten zu übermitteln. Dieser Draht ist ein Schmerz, er bricht das Eintauchen. Ich war eine Minute an einem anderen Ort, aber dann habe ich etwas um meinen Fuß gewickelt."

    Auf der AR-Seite sind die Einschränkungen unterschiedlich. Es geht vielmehr um Computer Vision und Verarbeitungsleistung für 3D-Echtzeitgrafiken. Wenn es um Computer Vision geht und verschiedene Arten von maschinellem Lernen (ML) verwendet werden, um Lücken zu schließen und AR / VR-Erlebnisse intelligenter und nahtloser zu gestalten, ist dies der Punkt, an dem die wachsende KI-Abteilung von Unity arbeitet.

  • Die KI-Strategie von Unity

    Unity verwendet AI auf vielfältige Weise, von der Verbesserung des Gameplays und des Engine-Designs über die Verfolgung des Benutzerverhaltens bis hin zur Änderung der Art und Weise, wie Spieleentwickler ihre Apps monetarisieren können. Das AI-Team, das weltweit mehr als 100 Mitarbeiter zählt, wird von Danny Lange, dem Vice President of AI and Machine Learning bei Unity, geleitet.

    Lange kam vor ungefähr 18 Monaten zu Unity, nachdem er als Head of Machine Learning bei Uber und General Manager von Amazon Machine Learning tätig war. Er hat auch bei IBM und Microsoft gearbeitet. Er kam mit einer anderen Perspektive auf ML in die Spielewelt und hat dazu beigetragen, die traditionellen ML-Bemühungen von Unity in ehrgeizigere Projekte umzusetzen.

    "Unternehmen wie Amazon und Uber sind so stark auf maschinelles Lernen ausgerichtet. Wenn man aus einer Welt selbstfahrender Autos in diese 3D-Spielumgebung kommt, möchte man nach dem perfekten Ort suchen, um die Grenzen der künstlichen Intelligenz zu überschreiten", sagte Lange.

    "Als ich vorbeikam, gab es eine Reihe von maschinellen Lernanstrengungen, bei denen ich Erfahrungen mit Bestärkungslernen und dynamischen Systemen einbrachte, bei denen Sie das Verhalten grundlegend verbessern", fuhr Lange fort. "Dies ist etwas, was wir sowohl bei Amazon als auch bei Uber sehr getan haben. Egal, ob Sie Bücher verschicken oder für einen reibungslosen Abholservice für Uber optimieren, all diese Dinge sind nicht wirklich Leute, die darauf sitzen und ihn entwerfen, sondern Computersysteme, die lernen, wo sie zu erzählen sind Sie, wo Sie Ihren Uber-Fahrer treffen können. Und als ich zu Unity kam, sah ich eine große Chance, diese Ideen in die Spielewelt einzubringen."

    Wie Lange erklärte, umfassen die ML-Projekte von Unity alles vom Gameplay bis zur Monetarisierung. In einem Fall sucht das Team nach Anwendergruppen mit bestimmten Ausgabenmustern, die Unity-Entwickler durch Werbung oder In-App-Käufe monetarisieren möchten. Unity gibt diese Ergebnisse dann an die Entwickler weiter, damit diese sich auf lange Sicht wirksamer engagieren können.

    Das Unternehmen wendet ML auch an, um das Gameplay, das Engine-Design und die Unterstützung beim Inhaltserstellungsprozess zu verbessern. Die übergreifende Strategie von Unity gliedert sich im Wesentlichen zwischen der Entwicklungsseite für mehr Service-Level-ML und weiterführender Deep-Learning-Forschung auf der akademischen Seite. Lange sagte, dies kreuze sich auch mit dem, was die Pariser Abteilung mit der XR-Entwicklung tue, bei der Unity Forschern eine grafische 3D-Umgebung bietet, um neue ML-Algorithmen zu testen.

    "AR und VR sind eigentlich fantastische Bereiche für maschinelles Lernen und KI. Ich betrachte KI oft als verbesserte Realität, und mit der Realität ist schwer umzugehen", sagte Lange. "Es ist schwierig, feste Algorithmen zu entwickeln, die alles in einem Raum verstehen und diesen Raum überlagern. Das kann man nicht wirklich codieren. Man muss maschinelles Lernen und KI verwenden, um virtuelle Objekte in einen Raum zu bringen, die erkennen, dass ein Tisch ist Wenn Sie eine Oberfläche auf den Rand eines Tisches legen, fällt sie. In diesen Bereichen spielt maschinelles Lernen aufgrund dieses dynamischen Verhaltens in der realen Welt eine sehr wichtige Rolle: Wir verstehen die Tiefe und Dimensionen in virtuellen Räumen mit dem Ziel, die Spitze des Deep-Learning-Bereichs herauszustellen und die Art und Weise zu revolutionieren, wie diese Spiele erstellt werden und sich verhalten."

  • Maschinelles Lernen hinter den Kulissen

    Auf der Seite der Spieleentwicklung und des Gameplays zog Lange den Vorhang zurück, wie Unity ML-Algorithmen in die Erfahrung einbindet, um den Erstellungs- und Iterationsprozess zu automatisieren.

    "Wir erfassen viele Verhaltensdaten: Wenn ein Spiel beginnt - wie lange hast du gespielt, welche Szenen hast du in diesem Spiel durchlaufen", sagte Lange. "In diesem Sinne verwenden wir maschinelles Lernen und Datenanalyse in einem ähnlichen Kontext wie Amazon oder Google. Wir erfassen Verhaltensdaten und geben sie an den Spieleentwickler zurück. Das entspricht in etwa der Webanalyse und liefert Ihnen verwertbare Daten." um sofort zu sehen, in welchen Levels die Spieler hängen bleiben, welche Szenen nicht funktionieren, etc."

    Diese Daten können verwendet werden, um Faktoren wie In-App-Käufe und Werbung zu optimieren. Lange sagte jedoch, dass die Algorithmen dabei helfen, ein Gleichgewicht zwischen dem Anzeigen von Benutzerinhalten, an denen sie interessiert sind, und der extremen Monetarisierung von Spielen zu finden. Auf Makroebene erklärte er, dass es mehr darum gehe, eine sich selbst aufrechterhaltende Schleife von Verhaltensdaten zu erstellen, um die Entwicklung von Spielen zu vereinfachen und manuelle Entwicklerarbeit aus der Gleichung zu nehmen.

    "Beim maschinellen Lernen können Sie Daten erfassen und Verbindungen herstellen", sagte Lange. "Wenn Sie das in eine Schleife stecken, wie Sie es häufig in einem Spiel sehen, führen die Daten zu Vorhersagen durch das Spiel und die Spieler. Dadurch entstehen mehr Verhaltensdaten, und jetzt haben Sie tatsächlich ein System, mit dem Sie interagieren und lernen können." von Nutzern und wie sie miteinander interagieren. Eines unserer großen Bestrebungen ist es, mithilfe der KI-Technologie mehr organische Spiele zu entwickeln, die sich mit der Nutzung weiterentwickeln."

  • Agenten für maschinelles Lernen

    Der wichtigste Weg, auf dem Unity dies tut, ist ML Agents, eine Open-Source-Beta-Initiative, die Spiele und 3D-Simulationen zu Übungsplätzen für autonome intelligente Agenten macht. Im Grunde genommen können Entwickler mit Unity diese flexiblen ML-Agenten in jedem Szenario bereitstellen und sie verhalten sich wie ein Schwamm: Sie lernen und entwickeln sich auf benutzerdefinierte Weise, basierend auf der virtuellen Umgebung, in der Sie sie ablegen.

    "Meine Definition von maschinellem Lernen im Vergleich zu KI ist, dass man beim maschinellen Lernen Daten sammelt, das System trainiert und das war's", erklärte Lange. "KI ist, wenn sich das System ständig weiterbildet und immer besser wird. Wir möchten, dass sich Spiele weiterentwickeln können, und eine unserer öffentlichen Initiativen, um dies zu fördern, sind Agenten für maschinelles Lernen."

    Unity hat mehrere Zielgruppen für seine ML-Agenten. Ein Szenario ist für Entwickler, die diese automatisierten Charaktere bewegen und mit Spielern interagieren lassen. Anstatt ihre Aktionen zu kodieren, lernen ML-Agenten durch Verstärkung, indem sie verschiedene Level simulieren und Entwicklern dabei helfen, Spiele, die als virtuelle Spieler fungieren, schnell zu testen und Tausende von Spiellevels parallel zu testen.

    Ein weiterer Anwendungsfall für ML-Agenten dreht sich um Erzählungen. Lange sagte, Unity teste die Agenten, indem sie versuchten, herauszufinden, was ein Spieler als nächstes tun würde, und sie dann Schritt für Schritt zu verfolgen. Die Idee ist zu verstehen, was menschliche Spieler tun und wie das Spiel diese Entscheidungen im größeren Schema der Erzählung ausgleicht. In Spielen, in denen Millionen von Spielern aktiv sind, können ML-Agenten die Levels oder Handlungsstränge eines Spiels in großem Maßstab lernen und optimieren.

    In der obigen "Goodboy" -Simulation baute Langes Team ein einfaches Handyspiel mit einem maschinellen Lernmodell aus dem ML-Agents-Toolkit von Unity. Im Spiel holt sich der kleine Corgi einen Stock mit süßen Bewegungen, ohne hart codiert zu sein. Stattdessen werden seine Handlungen und Verhaltensweisen von ML-Agenten gesteuert. Unity plant, mit Plattformpartnern zusammenzuarbeiten, um ML Agents auf alle von Unity unterstützten Plattformen auszudehnen.

    "Wenn Sie über diese Art von Fähigkeiten in einem Spiel nachdenken, auf der Ebene der Erzählungen, dann sind es nicht die Charaktere, die sich im Spiel bewegen, die unbedingt kontrolliert werden müssen, sondern die eigentliche Erzählung des Spiels. Sie haben also im Grunde das Spiel, das versucht, Sie in einige hineinzuversetzen." sehr aufregende Straßen. Sie können also wählen, ob Sie nach links oder rechts gehen möchten, und das Spiel orchestriert im Grunde genommen eine Reihe von Ereignissen basierend auf den Vorhersagen, die Sie in fünf, 10, 15 Zügen treffen werden. " sagte Lange.

    "Sie können sich vorstellen, wie das in einem Multiplayer-Spiel funktionieren könnte", fuhr er fort. "Eines der klassischen Beispiele: Zu Beginn eines Spiels treffen sich zwei Personen. Eine raubt das ganze Gold eines anderen Spielers und trennt sich dann mit bösem Blut zwischen ihnen. Das Spiel würde dann eine Erzählung sicherstellen, in der jeder Spieler endet zusammen an einem Ort, an dem sie überleben können, müssen sie zusammenarbeiten, müssen eine Brücke überqueren und können es nur zusammen tun, wenn sie nicht im Spiel sind Simulationen, aber mit ML Agents kann das Spiel solche Simulationen dynamisch erstellen."

  • KI-unterstützte virtuelle Welten bauen

    Die "Pyramiden" -Demo oben ist eine Umgebung, die die Ergebnisse eines Verstärkungslernprojekts namens "Curiosity" zeigt, bei dem ML-Agenten schnell eine Welt erkunden, um die versteckten Belohnungen auf der Karte zu entdecken.

    Eine andere Seite der KI-Operationen von Unity ist die Verwendung von ML, um beim Generieren von 3D-Inhalten eindringlichere Szenen und Texturen zu erstellen. Lange sagte, dies sei ein neueres, aber vielversprechendes Gebiet, in dem autonome Systeme innerhalb eines Spiels bewegungsgesteuerte Inhalte erzeugen und natürliche Bewegungen ausfüllen können, um zu lernen, wie sich ein Charakter, ein Mensch oder ein Tier bewegt, und dann diese Animation in einem Spiel nachzuahmen.

    "Wir haben Tausende von Entwicklern, die dies testen", sagte Lange. "Auf der akademischen Seite haben wir angefangen, viele NASA-Studenten und Doktoranden am MIT und am Paul Allen Institute in Seattle zu sehen, die etwas über Unity veröffentlichen. Ich habe mich gerade mit Entwicklern in London getroffen, um nach NPC-Entwicklungen Ausschau zu halten, die das wirklich vorantreiben." Beschränkung der Grafikleistung mit iPhones und Android-Geräten."

    Unity hat auch eine Engine namens Extreme AI, mit der Charakteren Persönlichkeiten zugeordnet werden können, ähnlich wie Amazon Sumerian AI-infundierte "Hosts" erstellt. Für nicht spielbare Charaktere in einem Spiel hat Unity in den letzten ein oder zwei Jahren damit begonnen, für eine natürlichere Simulation zu experimentieren, sagte Lange.

    "Wenn Sie also einen Roboter oder ein selbstfahrendes Auto bauen oder ein Haus entwerfen möchten, können Sie dies in Unity tun und dieses Haus mit NSCs bevölkern", sagte Lange. "Sie können 1.000 Familien simulieren, die in diesem Haus leben, und Informationen darüber sammeln, wie sich die Charaktere bewegen. Öffnen sich die Türen in die richtige Richtung? Gibt es genug Licht in den Räumen? Wenn Sie dies in der Wolke tun, könnten Sie 1.000 verschiedene Häuser haben mit 1.000 verschiedenen Familien. Dies scheint weit über das eigentliche Spielen hinauszugehen, aber all dies basiert auf der Spieltechnologie."

  • Die Zukunft immersiver Apps

    Angesichts der wachsenden Ambitionen des Unternehmens in Bezug auf AR / VR und künstliche Intelligenz sucht Unity nach einer neuen Generation von 3D-Apps, die über das Spielen hinausgeht. Ein Beispiel ist die Automobilindustrie, für die Unity kürzlich ein engagiertes Team zusammengestellt hat, um AR / VR-Inhalte für Kunden wie Audi, Toyota, Lexus und Volkswagen zu erstellen. Parisi sagte, Unity wolle die Leistungsfähigkeit seines plattformübergreifenden Entwickler-Ökosystems nutzen, um die Entwicklung von AR / VR-Apps in neuen Branchen voranzutreiben.

    "Wir ändern, wie Sie Autos entwerfen, Filme machen und wie Sie all diese Dinge als Unternehmen tun, das es versteht, an Spieleentwickler zu verkaufen", sagte Parisi. "Als Beispiel nehmen wir an, Ford möchte eine App in seinem Innovationslabor erstellen. Sie verfügen über hochwertige Hardware und Software, und dann kommt der Rift heraus und sie beschließen, dies einfach auf einem Gaming-PC zu tun. Sie schalten eine Anzeige." Und wahrscheinlich ist jemand in der Gegend von Detroit ein Unity-Programmierer. Diese eine Person beginnt mit dem Prototypenbau, wird zu einem Innovationsteam aus drei Personen und beginnt dann, neue Wege zu entwickeln, um das Autodesign als Ersatz für physische Prototypen zu nutzen."

    Auch bei AR und E-Commerce sieht Parisi viel Potenzial zur Reibungsreduzierung. Der große Wendepunkt ist die bevorstehende Ratifizierung von WebXR durch das World Wide Web Consortium (W3C), einem neuen Standard, mit dem AR- und VR-Erlebnisse als Web-Apps direkt in Desktop- und mobilen Browsern ausgeführt werden können.

    Stellen Sie sich vor, Sie sehen eine Anzeige für ein neues Küchengerät in Ihrem Social Feed und ziehen dieses 3D-Modell in eine mit Ihrer Kamera verknüpfte Mixed-Reality-Umgebung, um zu sehen, wie es in Ihrer Küche aussieht. Damit diese Art von 3D-Werbetechnologie im großen Stil funktioniert, muss das Web-Erlebnis nahtlos sein. Wenn Sie eine App installieren müssen, um jedes 3D-Objekt anzuzeigen, das mit virtuellen Informationen versehen ist, um es mit Ihrer Kamera zu verbinden, funktioniert das Modell nicht. Unity versteht sich jedoch als Werkzeug zusammen mit Standards wie WebXR, mit denen diese Kompatibilitätslücken geschlossen werden können.

    Parisi stellt sich eine Zukunft vor, in der der Formfaktor für AR / VR-Erlebnisse ein eigenständiges Unterhaltungsgerät ist, sei es ein In-Home-Erlebnis, eine ortsbasierte App oder eine Unternehmenssimulation für das Training. Er sagte auch, dass die Benutzerschnittstelle vollständig immersiv werden muss. Die Technologie ist noch nicht da, aber er glaubt nicht, dass sie so weit weg ist, wie manche vielleicht denken.

    "Einige Leute glauben, dass es Jahrzehnte dauern wird, bis wir zu einem wirklich guten immersiven Headset oder einer Brille mit ausreichender Rechenleistung kommen", sagte Parisi. "Wenn Sie all die wunderbaren Durchbrüche bei der Miniaturisierung in Betracht ziehen, die all diese Computeraspekte - CPU, GPU, 5G-Netzwerke - in ein paar Jahren mit sich bringen, können wir möglicherweise einen Teil dieser Prozesse an den Rand oder in die Cloud verlagern. Der Formfaktor könnte dies Alles andere als das gemeinsame Element ist definitiv eine beeindruckende Benutzeroberfläche, auf der Sie auf Knopfdruck realisierte digitale Charaktere oder geschichtete Umgebungen erleben können, in denen die digitale und die reale Welt verschmelzen."

Wie die Einheit ihre Zukunft auf ar, vr und ai aufbaut