Le développement de XR a parcouru un long chemin ces dernières années, principalement parce que les moteurs de jeux deviennent plus faciles à apprendre et à utiliser. Ceci est important pour les professionnels de L&D qui développent des expériences eLearning XR (c.-à-d. Réalité augmentée, réalité mixte, réalité virtuelle, vidéo à 360 degrés) car le cycle de développement diminue car les concepteurs peuvent désormais participer au processus sans avoir à coder. Dans cet article, nous explorons une nouvelle fonctionnalité à venir du moteur de jeu Unity, ce qu’elle fait et pourquoi elle est importante pour les professionnels de L&D.

Une compréhension de haut niveau de Unity MARS et AR Foundation

Nous avons récemment découvert l’une des fonctionnalités à venir d’Unity, la Studio de réalité mixte et augmentée (MARS), qui est utilisé conjointement avec AR Foundation, un outil Unity récemment lancé. Nous avons déjà vu que ces deux fonctionnalités se combinent en un puissant ensemble d’outils pour les développeurs de réalité augmentée, bien que nous soyons encore en train d’apprendre à les utiliser. Notez que MARS est encore en phase de test bêta et n’a pas encore été rendu public.

Il existe de nombreuses informations techniques sur AR Foundation in Unity, et pratiquement aucune information sur MARS nulle part. Voici comment nous les comprenons le mieux du point de vue du profane. AR Foundation est l’outil d’Unity pour déployer un projet AR sur n’importe quelle plate-forme majeure. Cela signifie que vous pouvez créer votre expérience AR une seule fois et la déployer sur tous les appareils compatibles AR à la fois, tels qu’un appareil mobile iOS, un appareil mobile Android, un écran monté sur la tête Microsoft Hololens (HMD) ou un Magic Leap HMD . MARS a été développé pour travailler en coordination avec AR Foundation, améliorant considérablement la vitesse et la facilité de développement.

L’un des aspects les plus difficiles et chronophages du développement d’une expérience de réalité augmentée consiste à intégrer des éléments virtuels dans votre monde réel. Comme l’a dit Charles Migos, directeur mondial du design chez Unity dans un Présentation MARS à Unite Copenhagen 2019, « Obtenir des données du monde réel dans un projet Unity est un processus difficile … Les cycles d’itération étaient trop longs et nécessitaient un code semi-complet pour tester. » Cela signifie généralement l’écriture de code presque complet, le prototypage et les tests dans les mondes réel et virtuel, puis la révision du code et la répétition de l’ensemble du processus à l’infini.

MARS offre aux concepteurs et aux développeurs la flexibilité de créer et de manipuler plus facilement le monde qu’ils souhaitent utiliser pour leurs expériences de RA. Vous pouvez utiliser les capteurs, caméras et données existants de votre appareil mobile pour capturer une représentation précise du monde réel autour de vous et importer ces informations directement dans votre projet Unity en temps réel. MARS convertit ensuite rapidement ces données du monde réel en un monde virtuel que vous pouvez immédiatement utiliser pour votre expérience d’apprentissage en ligne AR. Vous pouvez considérer MARS comme les entrées pour vos expériences XR et AR Foundation comme les sorties pour ces mêmes expériences.

La puissance de MARS Simulation View

Dans le cadre de MARS, il existe un éditeur en temps réel appelé la vue de simulation qui fournit une interface de développement ce que vous voyez est ce que vous obtenez (WYSIWYG). Dans la vue de simulation, vous pouvez modifier l’emplacement où vous placez les objets et la façon dont ces objets interagissent avec le monde réel. Vous avez toujours la possibilité de créer une expérience eLearning encore plus détaillée avec des scripts de codage personnalisés.

Parce que MARS est construit sur AR Foundation, il prend en charge la détection des plans de surface horizontaux et verticaux. La détection de plan signifie que votre expérience AR eLearning peut voir où une surface, horizontale ou verticale, existe dans le monde créé. Vous pouvez donner à vos objets des paramètres, par exemple, quand apparaître, sur quel type, hauteur ou taille de surface apparaître. Ensuite, si l’appareil AR d’un joueur détecte des surfaces avec des caractéristiques correspondantes (c.-à-d. Hauteur, taille, forme, emplacement, etc.), vos objets apparaîtront automatiquement pour le joueur. Vous pouvez même tester si ces paramètres fonctionneront dans le monde réel à l’aide de la vue de simulation.

Ceci est important car il vous fait gagner du temps dans le prototypage. En d’autres termes, vous pouvez désormais le faire instantanément à l’aide de la vue de simulation. Comme le dit le site Web d’Unity, la vue de simulation «la fenêtre comprend des outils et une interface utilisateur pour voir, prototyper, tester et visualiser des applications AR robustes telles qu’elles s’exécuteront dans le monde réel». Ou, comme Andrew Maneri, responsable des données et du contenu, MARS chez Unity, l’a déclaré à Unite Copenhagen 2019: « Le but de MARS est d’obtenir une boucle d’itération aussi petite que possible à chaque stade de développement. »

Reportez-vous à la figure 1 pour un exemple de prototypage d’une expérience AR en temps réel. Dans cet exemple, le dispositif AR a détecté les données d’un environnement de bureau, envoyant les données à Unity via MARS. Ensuite, en utilisant les paramètres de ressources précédemment créés dans AR Foundation (c’est-à-dire la détection des avions), Unity a pu immédiatement transformer le bureau en une jungle virtuelle et y placer un personnage que le joueur pourrait voir dans l’appareil AR. Le joueur contrôlait le personnage, la déplaçant dans l’espace, à travers la jungle du bureau, jusqu’au sol, etc.

Capture d'écran de la démo de simulation MARS, Unite Copenhagen 2019

Figure 1: Capture d’écran de la démo de simulation MARS, Unite Copenhagen 2019

Construire le Mirrorworld

Des outils tels que AR Foundation et MARS nous permettent de construire plus facilement ce que Kevin Kelly appelle Mirrorworld. Dans ce futur Mirrorworld, chaque personne physique, lieu ou chose a un équivalent virtuel. Cela permettra non seulement aux humains de détecter, de comprendre et d’interagir plus efficacement avec les informations, mais aussi aux ordinateurs de détecter, de comprendre et d’interagir avec le monde physique. Ou, comme Timoni West, directeur de XR, Labs at Unity, l’a déclaré à Unite Copenhagen 2019, avec MARS «(W) e peut vraiment entrer dans ce domaine de l’informatique distribuée où les ordinateurs font ce que nous voulons réellement qu’ils fassent», et que Unity fournit «les outils pour que vous puissiez en profiter». Unity MARS et AR Foundation sont de puissants outils d’apprentissage pour les professionnels de L&D, nous permettant de créer rapidement et plus facilement des expériences d’apprentissage XR et de les déployer sur toutes les plates-formes XR.

Ressources additionnelles