VividQ et Dispelix créent une technologie holographique 3D pour la RA portable

Découvrez toutes les sessions à la demande du Sommet sur la sécurité intelligente ici.


VividQun fabricant de technologie d’affichage holographique pour les jeux en réalité augmentée, s’est associé à un concepteur de guides d’ondes Dispelix pour créer une nouvelle technologie d’imagerie holographique 3D.

Les entreprises ont déclaré que la technologie était presque impossible il y a à peine deux ans. Ils ont dit qu’ils avaient conçu et
a fabriqué un « combinateur de guides d’ondes » capable d’afficher avec précision un contenu 3D simultané à profondeur variable dans l’environnement d’un utilisateur. Pour la première fois, les utilisateurs pourront profiter d’expériences de jeu AR immersives où le contenu numérique peut être placé dans leur monde physique et interagir avec lui naturellement et confortablement. La technologie pourrait être utilisée pour les appareils portables, c’est-à-dire les casques AR ou les lunettes intelligentes.

Les deux sociétés ont également annoncé la formation d’un partenariat commercial pour développer la nouvelle technologie de guide d’ondes 3D en vue d’une production de masse. Cela permettra aux fabricants de casques de lancer dès maintenant leurs feuilles de route de produits AR.

VividQ

Les premières expériences de réalité augmentée vues jusqu’à présent via des casques tels que Magic Leap, Microsoft HoloLens, Vuzix et autres, produisent des images stéréoscopiques 2D à des distances focales fixes, ou une distance focale à la fois. Cela entraîne souvent une fatigue oculaire et des nausées pour les utilisateurs et n’offre pas les expériences tridimensionnelles immersives nécessaires – par exemple, les objets ne peuvent pas interagir naturellement à bout de bras et ils ne sont pas placés exactement dans le monde réel.

Afin d’offrir les types d’expériences immersives nécessaires pour que la réalité augmentée soit adoptée par le marché de masse, les consommateurs ont besoin d’un champ de vision suffisant et de la capacité de se concentrer sur des images 3D à toute la gamme des distances naturelles – de 10 cm à l’infini optique, simultanément – de la même manière qu’ils le font naturellement avec des objets physiques.

Un combinateur de guides d’ondes est la méthode préférée de l’industrie pour afficher des images AR dans un facteur de forme compact. Ce guide d’ondes de nouvelle génération et le logiciel qui l’accompagne sont optimisés pour les applications 3D telles que les jeux, ce qui signifie que les marques grand public du monde entier peuvent libérer tout le potentiel du marché.

Les guides d’ondes (également appelés «combineurs» ou «combineurs de guides d’ondes») donnent un frontal léger et conventionnel (c’est-à-dire ressemblent à des lentilles en verre normales) pour les casques AR, et sont nécessaires pour une adoption généralisée. Outre les avantages du facteur de forme, les guides d’ondes actuellement sur le marché effectuent un processus appelé réplication de la pupille. Cela signifie qu’ils peuvent prendre une image à partir d’un petit panneau d’affichage (alias une «boîte à œil») et l’agrandir efficacement en créant une grille de copies de la petite image devant l’œil du spectateur – un peu comme un périscope mais au lieu d’un vue unique, il crée plusieurs vues. Ceci est essentiel pour rendre l’AR portable ergonomique et facile à utiliser.

Les petites boîtes à œil sont notoirement difficiles à aligner avec la pupille de l’utilisateur et l’œil peut facilement « tomber » de l’image s’ils ne sont pas alignés correctement. Cela nécessite que les casques soient ajustés avec précision à l’utilisateur, car même les variations de la distance interpupillaire (IPD) des différents utilisateurs peuvent signifier qu’ils peuvent ne pas aligner exactement leur œil avec la boîte à yeux et être incapables de voir l’image virtuelle.

Puisqu’il existe un compromis fondamental entre la taille de l’image (que nous appelons “boîte à yeux” ou “pupille de sortie”) et le champ de vision (FoV) affiché, cette réplication permet au concepteur optique de rendre la boîte à yeux très petite, en s’appuyant sur le processus de réplication pour donner une grande image efficace au spectateur, tout en maximisant le FoV.

“Il y a eu des investissements et des recherches importants dans la technologie qui peut créer les types d’expériences AR dont nous rêvons, mais elles ne sont pas à la hauteur car elles ne peuvent même pas répondre aux attentes élémentaires des utilisateurs”, a déclaré le PDG de VividQ, Darran Milne. “Dans une industrie qui a déjà connu sa juste part de battage médiatique, il peut être facile de rejeter toute nouvelle invention comme encore plus de la même chose, mais un problème fondamental a toujours été la complexité de l’affichage d’images 3D placées dans le monde réel avec un champ de vision décent et avec une boîte à yeux suffisamment grande pour accueillir une large gamme d’IPD (distance interpupillaire, ou l’espace entre les pupilles de l’utilisateur), le tout enfermé dans une lentille légère.

Milne a ajouté: «Nous avons résolu ce problème, conçu quelque chose qui peut être fabriqué, testé et éprouvé, et établi le partenariat de fabrication nécessaire pour les produire en masse. C’est une percée car sans holographie 3D, vous ne pouvez pas fournir de RA. Pour le dire simplement, alors que d’autres développaient un écran 2D à porter sur votre visage, nous avons développé la fenêtre à travers laquelle vous ferez l’expérience des mondes réel et numérique en un seul endroit.

Une image conceptuelle pour un jeu de simulation où l’utilisateur peut interagir avec un monde numérique à bout de bras.

Le combinateur de guides d’ondes 3D en instance de brevet de VividQ est conçu pour fonctionner avec le logiciel de la société, qui peuvent tous deux être concédés sous licence par les fabricants de vêtements afin de créer une feuille de route de produits portables. Le logiciel d’affichage holographique de VividQ fonctionne avec des moteurs de jeux standard comme Unity et Unreal Engine, ce qui permet aux développeurs de jeux de créer très facilement de nouvelles expériences. Le guide d’ondes 3D peut être fabriqué et fourni à grande échelle par l’intermédiaire du partenaire de fabrication de VividQ, Dispelix, un fabricant de guides d’ondes transparents pour appareils portables basé à Espoo, en Finlande.

« Les dispositifs AR portables ont un énorme potentiel partout dans le monde. Pour des applications telles que les jeux et l’utilisation professionnelle, où l’utilisateur doit être immergé pendant de longues périodes, il est essentiel que le contenu soit en 3D véritable et placé dans l’environnement de l’utilisateur », a déclaré Antti Sunnari, PDG de Dispelix, dans un communiqué. « Cela surmonte également les problèmes de nausées et de fatigue. Nous sommes très heureux de travailler avec VividQ en tant que partenaire de conception et de fabrication de guides d’ondes sur ce guide d’ondes 3D révolutionnaire.

Dans son siège social basé à Cambridge, au Royaume-Uni, VividQ a fait la démonstration de son logiciel et de la technologie de guide d’ondes 3D pour les fabricants d’appareils et les marques de technologie grand public, avec lesquels il travaille en étroite collaboration pour fournir des wearables AR de nouvelle génération. Une percée dans l’optique AR signifie que l’holographie 3D le jeu est désormais une réalité.

La tâche accomplie par les entreprises a été décrite comme «quasi-impossible» dans un article de recherche publié dans le Nanophotonics Journal en 2021.

Les combinateurs de guides d’ondes existants supposent que les rayons lumineux entrant sont parallèles (d’où une image 2D) car ils nécessitent que la lumière rebondissant à l’intérieur de la structure suive toutes des chemins de la même longueur. Si vous deviez insérer des rayons divergents (une image 3D), les trajets lumineux seraient tous différents, selon l’endroit d’où provient le rayon sur l’image 3D d’entrée.

C’est un gros problème car cela signifie effectivement que la lumière extraite a parcouru des distances différentes et l’effet, comme indiqué sur l’image sur le , est de voir plusieurs copies se chevauchant partiellement de l’image d’entrée, toutes à des distances aléatoires. Ce qui le rend essentiellement inutile pour toute application. Alternativement, ce nouveau combinateur de guides d’ondes 3D est capable de s’adapter aux rayons divergents et d’afficher correctement les images du canapé.

Le guide d’ondes 3D de VividQ est composé de deux éléments : Premièrement, une modification de la conception standard du guide d’ondes répliquant la pupille comme décrit ci-dessus. Et deuxièmement, un algorithme qui calcule un hologramme qui corrige la distorsion due au guide d’ondes. Les composants matériels et logiciels fonctionnent en harmonie les uns avec les autres et, en tant que tels, vous ne pouvez pas utiliser le guide d’ondes VividQ avec le logiciel ou le système de quelqu’un d’autre.

VividQ compte plus de 50 personnes à Cambridge, Londres, Tokyo et Taipei. Les entreprises ont commencé à travailler ensemble fin 2021. VividQ a été fondée en 2017 et peut retracer ses origines au département de photonique du Royaume-Uni à l’Université de Cambridge et à la Cambridge Judge Business School.

La société a jusqu’à présent levé 23 millions de dollars d’investissements auprès de fonds de technologie profonde au Royaume-Uni, en Autriche, en Allemagne, au Japon et dans la Silicon Valley. Lorsqu’on lui a demandé quelle était l’inspiration, le directeur technique de VividQ, Tom Durant, a déclaré dans un e-mail à GamesBeat : “Comprendre quelles étaient les limites, puis trouver comment les contourner. Une fois que nous avons identifié ce chemin, notre équipe multidisciplinaire de chercheurs et d’ingénieurs en optique et en logiciel s’est mise à résoudre chacun à son tour. Au lieu de voir cela comme un simple problème d’optique, notre solution est basée sur du matériel et des logiciels conçus pour fonctionner en tandem.

En ce qui concerne la différence avec les technologies concurrentes, la société a déclaré que les combinateurs de guides d’ondes existants sur le marché ne peuvent présenter des images qu’en deux dimensions à des distances focales définies. Ceux-ci sont généralement à environ deux mètres devant vous.

“Vous ne pouvez pas les rapprocher pour vous concentrer sur eux ou vous concentrer sur d’autres objets numériques au loin”, a déclaré la société. « Et lorsque vous regardez ces objets numériques flottant devant vous, vous pouvez souffrir très rapidement de fatigue oculaire et de VAC (vergence accommodation conflict), ce qui provoque des nausées. Pour les jeux, cela le rend très limité. Vous voulez créer des expériences où un utilisateur peut prendre un objet dans sa main et faire quelque chose avec, sans avoir besoin d’un contrôleur. Vous souhaitez également placer plusieurs éléments numériques dans le monde réel verrouillés en place avec la liberté de vous concentrer sur eux et sur les objets réels à proximité comme vous le souhaitez, ce qui conduit à un fort sentiment d’immersion.

Le credo de GamesBeat lorsque couvrir l’industrie du jeu vidéo est “là où la passion rencontre les affaires”. Qu’est-ce que ça veut dire? Nous voulons vous dire à quel point l’actualité compte pour vous, non seulement en tant que décideur dans un studio de jeux, mais aussi en tant que fan de jeux. Que vous lisiez nos articles, écoutiez nos podcasts ou regardiez nos vidéos, GamesBeat vous aidera à en savoir plus sur l’industrie et à vous engager avec elle. Découvrez nos Briefings.

Leave a Comment