Ultrahaptics IP Two Limited

Royaume‑Uni

Retour au propriétaire

1-100 de 268 pour Ultrahaptics IP Two Limited Trier par
Recheche Texte
Brevet
États-Unis - USPTO
Affiner par Reset Report
Date
Nouveautés (dernières 4 semaines) 1
2024 mars 2
2024 février 2
2024 janvier 6
2023 décembre 3
Voir plus
Classe IPC
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur 204
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales 97
G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément 85
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie 72
G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport 41
Voir plus
Statut
En Instance 42
Enregistré / En vigueur 226
Résultats pour  brevets
  1     2     3        Prochaine page

1.

MULTI-USER CONTENT SHARING IN IMMERSIVE VIRTUAL REALITY ENVIRONMENTS

      
Numéro d'application 18114156
Statut En instance
Date de dépôt 2023-02-24
Date de la première publication 2024-03-21
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Fox, Barrett
  • Hay, Kyle A.
  • Hare, Gabriel A.
  • Yu, Wilbur Yung Sheng
  • Edelhart, Dave
  • Medich, Jody
  • Plemmons, Daniel

Abrégé

The technology disclosed relates to user interfaces for controlling augmented reality environments. Real and virtual objects can be seamlessly integrated to form an augmented reality by tracking motion of one or more real objects within view of a wearable sensor system using a combination a RGB (red, green, and blue) and IR (infrared) pixels of one or more cameras. It also relates to enabling multi-user collaboration and interaction in an immersive virtual environment. In particular, it relates to capturing different sceneries of a shared real world space from the perspective of multiple users. The technology disclosed further relates to sharing content between wearable sensor systems. In particular, it relates to capturing images and video streams from the perspective of a first user of a wearable sensor system and sending an augmented version of the captured images and video stream to a second user of the wearable sensor system.

Classes IPC  ?

  • G06F 3/04812 - Techniques d’interaction fondées sur l’aspect ou le comportement du curseur, p.ex. sous l’influence de la présence des objets affichés
  • G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/0482 - Interaction avec des listes d’éléments sélectionnables, p.ex. des menus
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p.ex. interaction avec des règles ou des cadrans
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

2.

FREE-SPACE USER INTERFACE AND CONTROL USING VIRTUAL CONSTRUCTS

      
Numéro d'application 18506009
Statut En instance
Date de dépôt 2023-11-09
Date de la première publication 2024-03-07
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Bedikian, Raffi
  • Marsden, Jonathan
  • Mertens, Keith
  • Holz, David

Abrégé

During control of a user interface via free-space motions of a hand or other suitable control object, switching between control modes can be facilitated by tracking the control object's movements relative to, and its penetration of, a virtual control construct (such as a virtual surface construct). The technology disclosed includes determining from the motion information whether a motion of the control object with respect to the virtual control construct is an engagement gesture, such as a virtual mouse click or other control device operation. The position of the virtual control construct can be updated, continuously or from time to time, based on the control object's location.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p.ex. glissement, rotation, agrandissement ou changement de couleur
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

3.

IDENTIFYING AN OBJECT IN A FIELD OF VIEW

      
Numéro d'application 18387142
Statut En instance
Date de dépôt 2023-11-06
Date de la première publication 2024-02-29
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

The technology disclosed relates to identifying an object in a field of view of a camera. In particular, it relates to identifying a display in the field of view of the camera. This is achieved by monitoring a space including acquiring a series of image frames of the space using the camera and detecting one or more light sources in the series of image frames. Further, one or more frequencies of periodic intensity or brightness variations, also referred to as ‘refresh rate’, of light emitted from the light sources is measured. Based on the one or more frequencies of periodic intensity variations of light emitted from the light sources, at least one display that includes the light sources is identified.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/042 - Numériseurs, p.ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • G06T 7/55 - Récupération de la profondeur ou de la forme à partir de plusieurs images
  • G09G 3/34 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques pour la présentation d'un ensemble de plusieurs caractères, p.ex. d'une page, en composant l'ensemble par combinaison d'éléments individuels disposés en matrice en commandant la lumière provenant d'une source indépendante
  • H04N 23/71 - Circuits d'évaluation de la variation de luminosité
  • H04N 23/73 - Circuits de compensation de la variation de luminosité dans la scène en influençant le temps d'exposition
  • H04N 23/74 - Circuits de compensation de la variation de luminosité dans la scène en influençant la luminosité de la scène à l'aide de moyens d'éclairage

4.

DYNAMIC, FREE-SPACE USER INTERACTIONS FOR MACHINE CONTROL

      
Numéro d'application 18219517
Statut En instance
Date de dépôt 2023-07-07
Date de la première publication 2024-02-22
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Bedikian, Raffi
  • Marsden, Jonathan
  • Mertens, Keith
  • Holz, David
  • Sills, Maxwell
  • Perez, Matias
  • Hare, Gabriel
  • Julian, Ryan

Abrégé

Embodiments of display control based on dynamic user interactions generally include capturing a plurality of temporally sequential images of the user, or a body part or other control object manipulated by the user, and computationally analyzing the images to recognize a gesture performed by the user. In some embodiments, the gesture is identified as an engagement gesture, and compared with reference gestures from a library of reference gestures. In some embodiments, a degree of completion of the recognized engagement gesture is determined, and the display contents are modified in accordance therewith. In some embodiments, a dominant gesture is computationally determined from among a plurality of user gestures, and an action displayed on the device is based on the dominant gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

5.

MODE SWITCHING FOR INTEGRATED GESTURAL INTERACTION AND MULTI-USER COLLABORATION IN IMMERSIVE VIRTUAL REALITY ENVIRONMENTS

      
Numéro d'application 18374588
Statut En instance
Date de dépôt 2023-09-28
Date de la première publication 2024-02-08
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David Samuel

Abrégé

The technology disclosed relates to user interfaces for controlling augmented reality (AR) or virtual reality (VR) environments. Real and virtual objects can be seamlessly integrated to form an augmented reality by tracking motion of one or more real objects within view of a wearable sensor system. Switching the AR/VR presentation on or off to interact with the real world surrounding them, for example to drink some soda, can be addressed with a convenient mode switching gesture associated with switching between operational modes in a VR/AR enabled device.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

6.

USER-DEFINED VIRTUAL INTERACTION SPACE AND MANIPULATION OF VIRTUAL CAMERAS WITH VECTORS

      
Numéro d'application 18373243
Statut En instance
Date de dépôt 2023-09-26
Date de la première publication 2024-01-25
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Sills, Maxwell
  • Durdik, Paul

Abrégé

The technology disclosed relates to creating user-defined interaction spaces and modalities in a three dimensional (3D) sensor space in response to control gestures. It also relates to controlling virtual cameras in the 3D sensor space using control gestures and manipulating controls of the virtual cameras through the control gestures. In particular, it relates to defining one or more spatial attributes of the interaction spaces and modalities in response to one or more gesture parameters of the control gesture. It also particularly relates to defining one or more visual parameters of a virtual camera in response to one or more gesture parameters of the control gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p.ex. glissement, rotation, agrandissement ou changement de couleur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06T 15/20 - Calcul de perspectives

7.

AUGMENTED REALITY WITH MOTION SENSING

      
Numéro d'application 18374661
Statut En instance
Date de dépôt 2023-09-28
Date de la première publication 2024-01-25
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Roy, Neeloy
  • He, Hongyuan

Abrégé

A motion sensory and imaging device capable of acquiring imaging information of the scene and providing at least a near real time pass-through of imaging information to a user. The sensory and imaging device can be used stand-alone or coupled to a wearable or portable device to create a wearable sensory system capable of presenting to the wearer the imaging information augmented with virtualized or created presentations of information.

Classes IPC  ?

  • H04N 13/239 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques utilisant deux capteurs d’images 2D dont la position relative est égale ou en correspondance à l’intervalle oculaire
  • H04N 13/257 - Aspects en rapport avec la couleur
  • H04N 13/296 - Leur synchronisation; Leur commande
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • H04N 23/11 - Caméras ou modules de caméras comprenant des capteurs d'images électroniques; Leur commande pour générer des signaux d'image à partir de différentes longueurs d'onde pour générer des signaux d'image à partir de longueurs d'onde de lumière visible et infrarouge
  • H04N 23/54 - Montage de tubes analyseurs, de capteurs d'images électroniques, de bobines de déviation ou de focalisation
  • H04N 23/56 - Caméras ou modules de caméras comprenant des capteurs d'images électroniques; Leur commande munis de moyens d'éclairage
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

8.

PREDICTIVE INFORMATION FOR FREE SPACE GESTURE CONTROL AND COMMUNICATION

      
Numéro d'application 18373214
Statut En instance
Date de dépôt 2023-09-26
Date de la première publication 2024-01-25
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Horowitz, Kevin A.
  • Holz, David S.

Abrégé

Free space machine interface and control can be facilitated by predictive entities useful in interpreting a control object's position and/or motion (including objects having one or more articulating members, i.e., humans and/or animals and/or machines). Predictive entities can be driven using motion information captured using image information or the equivalents. Predictive information can be improved applying techniques for correlating with information from observations.

Classes IPC  ?

  • G06T 17/10 - Description de volumes, p.ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]
  • G06T 17/20 - Description filaire, p.ex. polygonalisation ou tessellation
  • G06T 7/593 - Récupération de la profondeur ou de la forme à partir de plusieurs images à partir d’images stéréo
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p.ex. le suivi des coins ou des segments
  • G06T 7/194 - Découpage; Détection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/136 - Découpage; Détection de bords impliquant un seuillage
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

9.

RESOURCE-RESPONSIVE MOTION CAPTURE

      
Numéro d'application 18373889
Statut En instance
Date de dépôt 2023-09-27
Date de la première publication 2024-01-18
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

The technology disclosed relates to operating a motion-capture system responsive to available computational resources. In particular, it relates to assessing a level of image acquisition and image-analysis resources available using benchmarking of system components. In response, one or more image acquisition parameters and/or image-analysis parameters are adjusted. Acquisition and/or analysis of image data are then made compliant with the adjusted image acquisition parameters and/or image-analysis parameters. In some implementations, image acquisition parameters include frame resolution and frame capture rate and image-analysis parameters include analysis algorithm and analysis density.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface

10.

DIFFERENTIATING A DETECTED OBJECT FROM A BACKGROUND USING A GAUSSIAN BRIGHTNESS FALLOFF PATTERN

      
Numéro d'application 18369768
Statut En instance
Date de dépôt 2023-09-18
Date de la première publication 2024-01-04
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Yang, Hua

Abrégé

A method for detecting a finger is provided. The method includes obtaining a plurality of digital images including a first digital image captured by a camera from a field of view containing a background and a hand including at least one finger, and obtaining an identification of pixels of the plurality of digital images that correspond to at least one finger that is visible in the plurality of digital images rather than to the background, the pixels being identified by: obtaining, from the digital images, a Gaussian brightness falloff pattern indicative of at least one finger, identifying an axis of the at least one finger based on the obtained Gaussian brightness falloff pattern indicative of the at least one finger without identifying edges of the at least one finger, and identifying the pixels that correspond to the at least one finger based on the identified axis.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p.ex. le suivi des coins ou des segments
  • G06T 7/254 - Analyse du mouvement impliquant de la soustraction d’images
  • H04N 13/254 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques en combinaison avec des sources de rayonnement électromagnétique pour l’éclairage du sujet
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/215 - Découpage basé sur le mouvement
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06V 20/64 - Objets tridimensionnels
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p.ex. occupants de véhicules automobiles ou piétons; Parties du corps, p.ex. mains
  • H04N 23/661 - Transmission des signaux de commande de la caméra par le biais de réseaux, p. ex. la commande via Internet
  • G06T 7/194 - Découpage; Détection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/10 - Découpage; Détection de bords
  • G06T 7/262 - Analyse du mouvement utilisant des procédés de transformation de domaine, p.ex. des procédés de transformée de Fourier
  • G06T 7/33 - Détermination des paramètres de transformation pour l'alignement des images, c. à d. recalage des images utilisant des procédés basés sur les caractéristiques
  • G06T 7/37 - Détermination des paramètres de transformation pour l'alignement des images, c. à d. recalage des images utilisant des procédés de transformation de domaine
  • G06T 7/90 - Détermination de caractéristiques de couleur

11.

ENHANCED FIELD OF VIEW TO AUGMENT THREE-DIMENSIONAL (3D) SENSORY SPACE FOR FREE-SPACE GESTURE INTERPRETATION

      
Numéro d'application 18370338
Statut En instance
Date de dépôt 2023-09-19
Date de la première publication 2024-01-04
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Durdik, Paul

Abrégé

The technology disclosed relates to enhancing the fields of view of one or more cameras of a gesture recognition system for augmenting the three-dimensional (3D) sensory space of the gesture recognition system. The augmented 3D sensory space allows for inclusion of previously uncaptured of regions and points for which gestures can be interpreted i.e. blind spots of the cameras of the gesture recognition system. Some examples of such blind spots include areas underneath the cameras and/or within 20-85 degrees of a tangential axis of the cameras. In particular, the technology disclosed uses a Fresnel prismatic element and/or a triangular prism element to redirect the optical axis of the cameras, giving the cameras fields of view that cover at least 45 to 80 degrees from tangential to the vertical axis of a display screen on which the cameras are mounted.

Classes IPC  ?

  • G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
  • G06F 3/042 - Numériseurs, p.ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • H04N 23/67 - Commande de la mise au point basée sur les signaux électroniques du capteur d'image
  • H04N 23/90 - Agencement de caméras ou de modules de caméras, p. ex. de plusieurs caméras dans des studios de télévision ou des stades de sport
  • G02B 5/04 - Prismes
  • G02B 7/18 - Montures, moyens de réglage ou raccords étanches à la lumière pour éléments optiques pour miroirs

12.

METHOD AND APPARATUS FOR CALIBRATING AUGMENTED REALITY HEADSETS

      
Numéro d'application 18367947
Statut En instance
Date de dépôt 2023-09-13
Date de la première publication 2023-12-28
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Selstad, Johnathon Scott
  • Holz, David Samuel

Abrégé

An AR calibration system for correcting AR headset distortions. A calibration image is provided to a screen and viewable through a headset reflector, and an inverse of the calibration image is provided to a headset display, reflected off the reflector and observed by a camera of the system while it is simultaneously observing the calibration image on the screen. One or more cameras are located to represent a user's point of view and aligned to observe the inverse calibration image projected onto the reflector. A distortion mapping transform is created using an algorithm to search through projection positions of the inverse calibration image until the inverse image observed by the camera(s) cancels out an acceptable portion of the calibration image provided to the screen as observed through the reflector by the camera, and the transform is used by the headset, to compensate for distortions.

Classes IPC  ?

  • G06T 5/00 - Amélioration ou restauration d'image
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

13.

Hand initialization for machine learning based gesture recognition

      
Numéro d'application 15432876
Numéro de brevet 11854308
Statut Délivré - en vigueur
Date de dépôt 2017-02-14
Date de la première publication 2023-12-26
Date d'octroi 2023-12-26
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Marsden, Jonathan
  • Bedikian, Raffi
  • Holz, David Samuel

Abrégé

The technology disclosed also initializes a new hand that enters the field of view of a gesture recognition system using a parallax detection module. The parallax detection module determines candidate regions of interest (ROI) for a given input hand image and computes depth, rotation and position information for the candidate ROI. Then, for each of the candidate ROI, an ImagePatch, which includes the hand, is extracted from the original input hand image to minimize processing of low-information pixels. Further, a hand classifier neural network is used to determine which ImagePatch most resembles a hand. For the qualified, most-hand like ImagePatch, a 3D virtual hand is initialized with depth, rotation and position matching that of the qualified ImagePatch.

Classes IPC  ?

  • G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 10/44 - Extraction de caractéristiques locales par analyse des parties du motif, p.ex. par détection d’arêtes, de contours, de boucles, d’angles, de barres ou d’intersections; Analyse de connectivité, p.ex. de composantes connectées
  • G06V 30/194 - Références réglables par une méthode adaptative, p.ex. par apprentissage
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p.ex. occupants de véhicules automobiles ou piétons; Parties du corps, p.ex. mains
  • G06F 18/22 - Critères d'appariement, p.ex. mesures de proximité
  • G06F 18/21 - Conception ou mise en place de systèmes ou de techniques; Extraction de caractéristiques dans l'espace des caractéristiques; Séparation aveugle de sources

14.

Machine learning based gesture recognition

      
Numéro d'application 15432869
Numéro de brevet 11841920
Statut Délivré - en vigueur
Date de dépôt 2017-02-14
Date de la première publication 2023-12-12
Date d'octroi 2023-12-12
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Marsden, Jonathan
  • Bedikian, Raffi
  • Holz, David Samuel

Abrégé

The technology disclosed introduces two types of neural networks: “master” or “generalists” networks and “expert” or “specialists” networks. Both, master networks and expert networks, are fully connected neural networks that take a feature vector of an input hand image and produce a prediction of the hand pose. Master networks and expert networks differ from each other based on the data on which they are trained. In particular, master networks are trained on the entire data set. In contrast, expert networks are trained only on a subset of the entire dataset. In regards to the hand poses, master networks are trained on the input image data representing all available hand poses comprising the training data (including both real and simulated hand images).

Classes IPC  ?

  • G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06K 9/78 - Combinaison de l'obtention de l'image et de fonctions de reconnaissance
  • G06T 7/285 - Analyse du mouvement utilisant une séquence de paires d'images stéréo
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p.ex. le suivi des coins ou des segments
  • G06N 3/04 - Architecture, p.ex. topologie d'interconnexion
  • G06N 3/08 - Méthodes d'apprentissage
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 10/10 - Acquisition d’images
  • G06V 20/64 - Objets tridimensionnels
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • G06F 18/214 - Génération de motifs d'entraînement; Procédés de Bootstrapping, p.ex. ”bagging” ou ”boosting”
  • G06F 18/24 - Techniques de classification
  • G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique

15.

CURSOR MODE SWITCHING

      
Numéro d'application 18226762
Statut En instance
Date de dépôt 2023-07-26
Date de la première publication 2023-11-16
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

Methods and systems for processing input from an image-capture device for gesture-recognition. The method further includes computationally interpreting user gestures in accordance with a first mode of operation; analyzing the path of movement of an object to determine an intent of a user to change modes of operation; and, upon determining an intent of the user to change modes of operation, subsequently interpreting user gestures in accordance with the second mode of operation.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateur; Leurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p.ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaiso
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • B65D 75/58 - Dispositifs d'ouverture ou servant à retirer le contenu, ajoutés ou incorporés lors de la confection du paquet

16.

AUTOMOTIVE AND INDUSTRIAL MOTION SENSORY DEVICE

      
Numéro d'application 18225598
Statut En instance
Date de dépôt 2023-07-24
Date de la première publication 2023-11-16
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Schunick, Justin
  • Roy, Neeloy
  • Zheng, Chen
  • Travis, Ward

Abrégé

The technology disclosed relates to highly functional/highly accurate motion sensory control devices for use in automotive and industrial control systems capable of capturing and providing images to motion capture systems that detect gestures in a three dimensional (3D) sensory space.

Classes IPC  ?

  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • G06F 3/042 - Numériseurs, p.ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • G01P 13/00 - Indication ou enregistrement de l'existence ou de l'absence d'un mouvement; Indication ou enregistrement de la direction d'un mouvement
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 20/59 - Contexte ou environnement de l’image à l’intérieur d’un véhicule, p.ex. concernant l’occupation des sièges, l’état du conducteur ou les conditions de l’éclairage intérieur
  • H04N 23/11 - Caméras ou modules de caméras comprenant des capteurs d'images électroniques; Leur commande pour générer des signaux d'image à partir de différentes longueurs d'onde pour générer des signaux d'image à partir de longueurs d'onde de lumière visible et infrarouge
  • G06T 7/20 - Analyse du mouvement
  • H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé

17.

Systems and Methods of Interacting with a Virtual Grid in a Three-dimensional (3D) Sensory Space

      
Numéro d'application 18216522
Statut En instance
Date de dépôt 2023-06-29
Date de la première publication 2023-10-26
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Ku, Bingxin
  • Chen, Pohung
  • Cohen, Isaac
  • Durdik, Paul A.

Abrégé

The technology disclosed relates to selecting a virtual item from a virtual grid in a three-dimensional (3D) sensory space. It also relates to navigating a virtual modality displaying a plurality of virtual items arranged in a grid by and automatically selecting a virtual item in a virtual grid at a terminal end of a control gesture of a control object responsive to a terminal gesture that transitions the control object from one physical arrangement to another. In one implementation, the control object is a hand. In some implementations, physical arrangements of the control object include at least a flat hand with thumb parallel to fingers, closed, half-open, pinched, curled, fisted, mime gun, okay sign, thumbs-up, ILY sign, one-finger point, two-finger point, thumb point, or pinkie point.

Classes IPC  ?

  • G06F 3/04883 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p.ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p.ex. des gestes en fonction de la pression exer utilisant un écran tactile ou une tablette numérique, p.ex. entrée de commandes par des tracés gestuels pour l’entrée de données par calligraphie, p.ex. sous forme de gestes ou de texte
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

18.

VELOCITY FIELD INTERACTION FOR FREE SPACE GESTURE INTERFACE AND CONTROL

      
Numéro d'application 18213729
Statut En instance
Date de dépôt 2023-06-23
Date de la première publication 2023-10-19
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Holz, David S.
  • Sills, Maxwell

Abrégé

The technology disclosed relates to automatically interpreting motion of a control object in a three dimensional (3D) sensor space by sensing a movement of the control object in the (3D) sensor space, interpreting movement of the control object, and presenting the interpreted movement as a path on a display. The path may be displayed once the speed of the movement exceeds a pre-determined threshold measured in cm per second. Once the path is displayed, the technology duplicates a display object that intersects the path on the display. In some implementations, the control object may be a device, a hand, or a portion of a hand (such as a finger).

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/0483 - Interaction avec des environnements structurés en pages, p.ex. métaphore livresque
  • G06F 3/0485 - Défilement ou défilement panoramique
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p.ex. interaction avec des règles ou des cadrans
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

19.

WEARABLE AUGMENTED REALITY DEVICES WITH OBJECT DETECTION AND TRACKING

      
Numéro d'application 18207663
Statut En instance
Date de dépôt 2023-06-08
Date de la première publication 2023-10-19
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed can provide capabilities to view and/or interact with the real world to the user of a wearable (or portable) device using a sensor configured to capture motion and/or determining the path of an object based on imaging, acoustic or vibrational waves. Implementations can enable improved user experience, greater safety, greater functionality to users of virtual reality for machine control and/or machine communications applications using wearable (or portable) devices, e.g., head mounted devices (HMDs), wearable goggles, watch computers, smartphones, and so forth, or mobile devices, e.g., autonomous and semi-autonomous robots, factory floor material handling systems, autonomous mass-transit vehicles, automobiles (human or machine driven), and so forth, equipped with suitable sensors and processors employing optical, audio or vibrational detection.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G09G 5/18 - Circuits de synchronisation pour l'affichage à balayage par trame
  • G06F 3/147 - Sortie numérique vers un dispositif de visualisation utilisant des panneaux de visualisation

20.

SYSTEMS AND METHODS FOR MACHINE CONTROL

      
Numéro d'application 18209259
Statut En instance
Date de dépôt 2023-06-13
Date de la première publication 2023-10-12
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

A region of space may be monitored for the presence or absence of one or more control objects, and object attributes and changes thereto may be interpreted as control information provided as input to a machine or application. In some embodiments, the region is monitored using a combination of scanning and image-based sensing.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06V 10/145 - Caractéristiques optiques de l’appareil qui effectue l’acquisition ou des dispositifs d’éclairage Éclairage spécialement adapté à la reconnaissance de formes, p.ex. utilisant des réseaux
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p.ex. occupants de véhicules automobiles ou piétons; Parties du corps, p.ex. mains

21.

DETERMINING POSITIONAL INFORMATION OF AN OBJECT IN SPACE

      
Numéro d'application 18197961
Statut En instance
Date de dépôt 2023-05-16
Date de la première publication 2023-09-14
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

The technology disclosed relates to determining positional information of an object in a field of view. In particular, it relates to measuring, using a light sensitive sensor, returning light that is (i) emitted from respective directionally oriented non-coplanar light sources of a plurality of directionally oriented light sources and (ii) returning from the target object, such as an automobile, as the target object moves through a region of space monitored by the light sensitive sensor. The technology disclosed compares the measured returning light to a look-up table that comprises mappings of measurements from the light sensitive sensor to a corresponding incoming angle of light; and determines positional information for the target object using the incoming angle of light.

Classes IPC  ?

  • G01S 17/36 - Systèmes déterminant les données relatives à la position d'une cible pour mesurer la distance uniquement utilisant la transmission d'ondes continues, soit modulées en amplitude, en fréquence ou en phase, soit non modulées avec comparaison en phase entre le signal reçu et le signal transmis au même moment
  • G01S 17/42 - Mesure simultanée de la distance et d'autres coordonnées
  • G01S 17/00 - Systèmes utilisant la réflexion ou la reradiation d'ondes électromagnétiques autres que les ondes radio, p.ex. systèmes lidar
  • G01S 17/48 - Systèmes de triangulation active, c. à d. utilisant la transmission et la réflexion d'ondes électromagnétiques autres que les ondes radio
  • G01S 17/89 - Systèmes lidar, spécialement adaptés pour des applications spécifiques pour la cartographie ou l'imagerie
  • G01S 7/481 - Caractéristiques de structure, p.ex. agencements d'éléments optiques
  • G01S 17/04 - Systèmes de détermination de la présence d'une cible
  • G01S 7/483 - DÉTERMINATION DE LA DIRECTION PAR RADIO; RADIO-NAVIGATION; DÉTERMINATION DE LA DISTANCE OU DE LA VITESSE EN UTILISANT DES ONDES RADIO; LOCALISATION OU DÉTECTION DE LA PRÉSENCE EN UTILISANT LA RÉFLEXION OU LA RERADIATION D'ONDES RADIO; DISPOSITIONS ANALOGUES UTILISANT D'AUTRES ONDES - Détails des systèmes correspondant aux groupes , , de systèmes selon le groupe - Détails de systèmes à impulsions

22.

BIOMETRIC AWARE OBJECT DETECTION AND TRACKING

      
Numéro d'application 18129599
Statut En instance
Date de dépôt 2023-03-31
Date de la première publication 2023-08-03
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Sills, Maxwell
  • Smith, Aaron
  • Holz, David S.
  • He, Hongyuan (jimmy)

Abrégé

The technology disclosed can provide methods and systems for identifying users while capturing motion and/or determining the path of a portion of the user with one or more optical, acoustic or vibrational sensors. Implementations can enable use of security aware devices, e.g., automated teller machines (ATMs), cash registers and banking machines, other secure vending or service machines, security screening apparatus, secure terminals, airplanes, automobiles and so forth that comprise sensors and processors employing optical, audio or vibrational detection mechanisms suitable for providing gesture detection, personal identification, user recognition, authorization of control inputs, and other machine control and/or machine communications applications. A virtual experience can be provided to the user in some implementations by the addition of haptic, audio and/or other sensory information projectors.

Classes IPC  ?

  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p.ex. occupants de véhicules automobiles ou piétons; Parties du corps, p.ex. mains

23.

Hand pose estimation for machine learning based gesture recognition

      
Numéro d'application 16508231
Numéro de brevet 11714880
Statut Délivré - en vigueur
Date de dépôt 2019-07-10
Date de la première publication 2023-07-06
Date d'octroi 2023-08-01
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Marsden, Jonathan
  • Bedikian, Raffi
  • Holz, David Samuel

Abrégé

The technology disclosed performs hand pose estimation on a so-called “joint-by-joint” basis. So, when a plurality of estimates for the 28 hand joints are received from a plurality of expert networks (and from master experts in some high-confidence scenarios), the estimates are analyzed at a joint level and a final location for each joint is calculated based on the plurality of estimates for a particular joint. This is a novel solution discovered by the technology disclosed because nothing in the field of art determines hand pose estimates at such granularity and precision. Regarding granularity and precision, because hand pose estimates are computed on a joint-by-joint basis, this allows the technology disclosed to detect in real time even the minutest and most subtle hand movements, such a bend/yaw/tilt/roll of a segment of a finger or a tilt an occluded finger, as demonstrated supra in the Experimental Results section of this application.

Classes IPC  ?

  • G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
  • G06T 7/13 - Détection de bords
  • G06K 9/46 - Extraction d'éléments ou de caractéristiques de l'image

24.

Systems and methods of tracking moving hands and recognizing gestural interactions

      
Numéro d'application 18111089
Numéro de brevet 11914792
Statut Délivré - en vigueur
Date de dépôt 2023-02-17
Date de la première publication 2023-06-29
Date d'octroi 2024-02-27
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Horowitz, Kevin A.
  • Perez, Matias
  • Bedikian, Raffi
  • Holz, David S.
  • Hare, Gabriel A.

Abrégé

The technology disclosed relates to relates to providing command input to a machine under control. It further relates to gesturally interacting with the machine. The technology disclosed also relates to providing monitoring information about a process under control. The technology disclosed further relates to providing biometric information about an individual. The technology disclosed yet further relates to providing abstract features information (pose, grab strength, pinch strength, confidence, and so forth) about an individual.

Classes IPC  ?

  • G09G 5/00 - Dispositions ou circuits de commande de l'affichage communs à l'affichage utilisant des tubes à rayons cathodiques et à l'affichage utilisant d'autres moyens de visualisation
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06T 7/20 - Analyse du mouvement
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • H04N 13/296 - Leur synchronisation; Leur commande
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateur; Leurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p.ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaiso
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p.ex. occupants de véhicules automobiles ou piétons; Parties du corps, p.ex. mains
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p.ex. le suivi des coins ou des segments
  • G01S 3/00 - Radiogoniomètres pour déterminer la direction d'où proviennent des ondes infrasonores, sonores, ultrasonores ou électromagnétiques ou des émissions de particules sans caractéristiques de direction

25.

SYSTEMS AND METHODS OF GESTURAL INTERACTION IN A PERVASIVE COMPUTING ENVIRONMENT

      
Numéro d'application 18093257
Statut En instance
Date de dépôt 2023-01-04
Date de la première publication 2023-06-29
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Gordon, Robert Samuel
  • Durdik, Paul Alan
  • Sills, Maxwell

Abrégé

The technology disclosed relates to selecting among devices to interact with. It also relates operating a smart phone with reduced power consumption. It further relates to gesturally interacting with devices that lack gestural responsiveness. The technology disclosed also relates to distinguishing control gestures from proximate non-control gestures in a pervasive three dimensional (3D) sensory space. The technology disclosed further relates to selecting among virtual interaction modalities to interact with.

Classes IPC  ?

  • G05B 15/02 - Systèmes commandés par un calculateur électriques
  • H04L 12/28 - Réseaux de données à commutation caractérisés par la configuration des liaisons, p.ex. réseaux locaux [LAN Local Area Networks] ou réseaux étendus [WAN Wide Area Networks]

26.

Predictive information for free space gesture control and communication

      
Numéro d'application 18161811
Numéro de brevet 11868687
Statut Délivré - en vigueur
Date de dépôt 2023-01-30
Date de la première publication 2023-06-01
Date d'octroi 2024-01-09
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Horowitz, Kevin
  • Bedikian, Raffi
  • Yang, Hua

Abrégé

The technology disclosed relates to simplifying updating of a predictive model using clustering observed points. In particular, it relates to observing a set of points in 3D sensory space, determining surface normal directions from the points, clustering the points by their surface normal directions and adjacency, accessing a predictive model of a hand, refining positions of segments of the predictive model, matching the clusters of the points to the segments, and using the matched clusters to refine the positions of the matched segments. It also relates to distinguishing between alternative motions between two observed locations of a control object in a 3D sensory space by accessing first and second positions of a segment of a predictive model of a control object such that motion between the first position and the second position was at least partially occluded from observation in a 3D sensory space.

Classes IPC  ?

  • G06F 17/00 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES Équipement ou méthodes de traitement de données ou de calcul numérique, spécialement adaptés à des fonctions spécifiques
  • G06F 30/20 - Optimisation, vérification ou simulation de l’objet conçu
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 20/64 - Objets tridimensionnels
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

27.

SYSTEMS AND METHODS OF FREE-SPACE GESTURAL INTERACTION

      
Numéro d'application 18094272
Statut En instance
Date de dépôt 2023-01-06
Date de la première publication 2023-05-25
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Yang, Hua
  • Kontsevich, Leonid
  • Donald, James
  • Holz, David S.
  • Marsden, Jonathan
  • Durdik, Paul

Abrégé

During control of a user interface via free-space motions of a hand or other suitable control object, switching between control modes can be facilitated by tracking the control object's movements relative to, and its contact with a “virtual touch plane or surface” (i.e., a plane, portion of a plane, and/or surface computationally defined in space, or corresponding to any physical surface).

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/0486 - Glisser-déposer

28.

User-Defined Virtual Interaction Space and Manipulation of Virtual Configuration

      
Numéro d'application 18099779
Statut En instance
Date de dépôt 2023-01-20
Date de la première publication 2023-05-25
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Sills, Maxwell

Abrégé

The technology disclosed relates to creating user-defined interaction spaces and modalities in a three dimensional (3D) sensor space in response to control gestures. It also relates to controlling virtual cameras in the 3D sensor space using control gestures and manipulating controls of the virtual cameras through the control gestures. In particular, it relates to defining one or more spatial attributes of the interaction spaces and modalities in response to one or more gesture parameters of the control gesture. It also particularly relates to defining one or more visual parameters of a virtual camera in response to one or more gesture parameters of the control gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p.ex. glissement, rotation, agrandissement ou changement de couleur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06T 15/20 - Calcul de perspectives

29.

DRIFT CANCELATION FOR PORTABLE OBJECT DETECTION AND TRACKING

      
Numéro d'application 18088496
Statut En instance
Date de dépôt 2022-12-23
Date de la première publication 2023-05-04
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed can provide capabilities such as using motion sensors and/or other types of sensors coupled to a motion-capture system to monitor motions within a real environment. A virtual object can be projected to a user of a portable device integrated into an augmented rendering of a real environment about the user. Motion information of a user body portion is determined based at least in part upon sensory information received from imaging or acoustic sensory devices. Control information is communicated to a system based in part on a combination of the motion of the portable device and the detected motion of the user. The virtual device experience can be augmented in some implementations by the addition of haptic, audio and/or other sensory information projectors.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G02B 27/01 - Dispositifs d'affichage "tête haute"

30.

SAFETY FOR WEARABLE VIRTUAL REALITY DEVICES VIA OBJECT DETECTION AND TRACKING

      
Numéro d'application 18069455
Statut En instance
Date de dépôt 2022-12-21
Date de la première publication 2023-04-27
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Gordon, Robert Samuel
  • Perez, Matias

Abrégé

The technology disclosed can provide improved safety by detecting potential unsafe conditions (e.g., collisions, loss of situational awareness, etc.) confronting the user of a wearable (or portable) sensor configured to capture motion and/or determining the path of an object based on imaging, acoustic or vibrational waves. Implementations can enable improved safety to users of virtual reality for machine control and/or machine communications applications using wearable (or portable) devices, e.g., head mounted displays (HMDs), wearable goggles, watch computers, smartphones, and so forth, or mobile devices, e.g., autonomous and semi-autonomous robots, factory floor material handling systems, autonomous mass-transit vehicles, automobiles (human or machine driven), and so forth, equipped with suitable sensors and processors employing optical, audio or vibrational detection.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

31.

Systems and Methods of Determining Interaction Intent in Three-dimensional (3D) Sensory Space

      
Numéro d'application 18084516
Statut En instance
Date de dépôt 2022-12-19
Date de la première publication 2023-04-20
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Chen, Pohung
  • Holz, David S.

Abrégé

The technology disclosed relates to determining intent for the interaction by calculating a center of effort for the applied forces. Movement of the points of virtual contacts and the center of effort are then monitored to determine a gesture-type intended for the interaction. The number of points of virtual contacts of the feeler zones and proximities between the points of virtual contacts are used to determine a degree of precision of a control object-gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateur; Leurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p.ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaiso
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

32.

DETERMINING SPANS AND SPAN LENGTHS OF A CONTROL OBJECT IN A FREE SPACE GESTURE CONTROL ENVIRONMENT

      
Numéro d'application 17958089
Statut En instance
Date de dépôt 2022-09-30
Date de la première publication 2023-03-30
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Horowitz, Kevin A.
  • Holz, David S.

Abrégé

Free space machine interface and control can be facilitated by predictive entities useful in interpreting a control object's position and/or motion (including objects having one or more articulating members, i.e., humans and/or animals and/or machines). Predictive entities can be driven using motion information captured using image information or the equivalents. Predictive information can be improved applying techniques for correlating with information from observations.

Classes IPC  ?

  • G06T 17/10 - Description de volumes, p.ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]
  • G06T 17/20 - Description filaire, p.ex. polygonalisation ou tessellation
  • G06T 7/593 - Récupération de la profondeur ou de la forme à partir de plusieurs images à partir d’images stéréo
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p.ex. le suivi des coins ou des segments
  • G06T 7/194 - Découpage; Détection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/136 - Découpage; Détection de bords impliquant un seuillage
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

33.

User-Defined Virtual Interaction Space and Manipulation of Virtual Cameras in the Interaction Space

      
Numéro d'application 17984964
Statut En instance
Date de dépôt 2022-11-10
Date de la première publication 2023-03-09
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Sills, Maxwell

Abrégé

The technology disclosed relates to creating user-defined interaction spaces and modalities in a three dimensional (3D) sensor space in response to control gestures. It also relates to controlling virtual cameras in the 3D sensor space using control gestures and manipulating controls of the virtual cameras through the control gestures. In particular, it relates to defining one or more spatial attributes of the interaction spaces and modalities in response to one or more gesture parameters of the control gesture. It also particularly relates to defining one or more visual parameters of a virtual camera in response to one or more gesture parameters of the control gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p.ex. glissement, rotation, agrandissement ou changement de couleur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06T 15/20 - Calcul de perspectives

34.

Augmented reality with motion sensing

      
Numéro d'application 17972288
Numéro de brevet 11778159
Statut Délivré - en vigueur
Date de dépôt 2022-10-24
Date de la première publication 2023-02-09
Date d'octroi 2023-10-03
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Roy, Neeloy
  • He, Hongyuan

Abrégé

A motion sensory and imaging device capable of acquiring imaging information of the scene and providing at least a near real time pass-through of imaging information to a user. The sensory and imaging device can be used stand-alone or coupled to a wearable or portable device to create a wearable sensory system capable of presenting to the wearer the imaging information augmented with virtualized or created presentations of information.

Classes IPC  ?

  • H04N 13/239 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques utilisant deux capteurs d’images 2D dont la position relative est égale ou en correspondance à l’intervalle oculaire
  • H04N 13/257 - Aspects en rapport avec la couleur
  • H04N 13/296 - Leur synchronisation; Leur commande
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • H04N 5/225 - Caméras de télévision
  • H04N 5/33 - Transformation des rayonnements infrarouges
  • H04N 23/11 - Caméras ou modules de caméras comprenant des capteurs d'images électroniques; Leur commande pour générer des signaux d'image à partir de différentes longueurs d'onde pour générer des signaux d'image à partir de longueurs d'onde de lumière visible et infrarouge
  • H04N 23/54 - Montage de tubes analyseurs, de capteurs d'images électroniques, de bobines de déviation ou de focalisation
  • H04N 23/56 - Caméras ou modules de caméras comprenant des capteurs d'images électroniques; Leur commande munis de moyens d'éclairage
  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage

35.

User-defined virtual interaction space and manipulation of virtual cameras with vectors

      
Numéro d'application 17959269
Numéro de brevet 11775080
Statut Délivré - en vigueur
Date de dépôt 2022-10-03
Date de la première publication 2023-01-26
Date d'octroi 2023-10-03
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Sills, Maxwell
  • Durdik, Paul

Abrégé

The technology disclosed relates to creating user-defined interaction spaces and modalities in a three dimensional (3D) sensor space in response to control gestures. It also relates to controlling virtual cameras in the 3D sensor space using control gestures and manipulating controls of the virtual cameras through the control gestures. In particular, it relates to defining one or more spatial attributes of the interaction spaces and modalities in response to one or more gesture parameters of the control gesture. It also particularly relates to defining one or more visual parameters of a virtual camera in response to one or more gesture parameters of the control gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p.ex. glissement, rotation, agrandissement ou changement de couleur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06T 15/20 - Calcul de perspectives

36.

Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation

      
Numéro d'application 17901542
Numéro de brevet 11775033
Statut Délivré - en vigueur
Date de dépôt 2022-09-01
Date de la première publication 2022-12-29
Date d'octroi 2023-10-03
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Durdik, Paul

Abrégé

The technology disclosed relates to enhancing the fields of view of one or more cameras of a gesture recognition system for augmenting the three-dimensional (3D) sensory space of the gesture recognition system. The augmented 3D sensory space allows for inclusion of previously uncaptured of regions and points for which gestures can be interpreted i.e. blind spots of the cameras of the gesture recognition system. Some examples of such blind spots include areas underneath the cameras and/or within 20-85 degrees of a tangential axis of the cameras. In particular, the technology disclosed uses a Fresnel prismatic element and/or a triangular prism element to redirect the optical axis of the cameras, giving the cameras fields of view that cover at least 45 to 80 degrees from tangential to the vertical axis of a display screen on which the cameras are mounted.

Classes IPC  ?

  • G02B 5/04 - Prismes
  • G02B 7/18 - Montures, moyens de réglage ou raccords étanches à la lumière pour éléments optiques pour miroirs
  • G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
  • H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
  • G06F 3/042 - Numériseurs, p.ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • H04N 23/67 - Commande de la mise au point basée sur les signaux électroniques du capteur d'image
  • H04N 23/90 - Agencement de caméras ou de modules de caméras, p. ex. de plusieurs caméras dans des studios de télévision ou des stades de sport

37.

Cursor mode switching

      
Numéro d'application 17896619
Numéro de brevet 11720181
Statut Délivré - en vigueur
Date de dépôt 2022-08-26
Date de la première publication 2022-12-22
Date d'octroi 2023-08-08
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

Methods and systems for processing input from an image-capture device for gesture-recognition. The method further includes computationally interpreting user gestures in accordance with a first mode of operation; analyzing the path of movement of an object to determine an intent of a user to change modes of operation; and, upon determining an intent of the user to change modes of operation, subsequently interpreting user gestures in accordance with the second mode of operation.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateur; Leurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p.ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaiso
  • B65D 75/58 - Dispositifs d'ouverture ou servant à retirer le contenu, ajoutés ou incorporés lors de la confection du paquet
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

38.

DETERMINING THE RELATIVE LOCATIONS OF MULTIPLE MOTION-TRACKING DEVICES

      
Numéro d'application 17578236
Statut En instance
Date de dépôt 2022-01-18
Date de la première publication 2022-12-08
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed relates to coordinating motion-capture of a hand by a network of motion-capture sensors having overlapping fields of view. In particular, it relates to designating a first sensor among three or more motion-capture sensors as having a master frame of reference, observing motion of a hand as it passes through overlapping fields of view of the respective motion-capture sensors, synchronizing capture of images of the hand within the overlapping fields of view by pairs of the motion-capture devices, and using the pairs of the hand images captured by the synchronized motion-capture devices to automatically calibrate the motion-capture sensors to the master frame of reference frame.

Classes IPC  ?

  • G06V 10/147 - Caractéristiques optiques de l’appareil qui effectue l’acquisition ou des dispositifs d’éclairage - Détails de capteurs, p.ex. lentilles de capteurs
  • G06T 7/80 - Analyse des images capturées pour déterminer les paramètres de caméra intrinsèques ou extrinsèques, c. à d. étalonnage de caméra
  • G06T 7/30 - Détermination des paramètres de transformation pour l'alignement des images, c. à d. recalage des images
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

39.

Adjusting Motion Capture Based on the Distance Between Tracked Objects

      
Numéro d'application 17887378
Statut En instance
Date de dépôt 2022-08-12
Date de la première publication 2022-12-01
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed relates to adjusting the monitored field of view of a camera and/or a view of a virtual scene from a point of view of a virtual camera based on the distance between tracked objects. For example, if the user's hand is being tracked for gestures, the closer the hand gets to another object, the tighter the frame can become—i.e., the more the camera can zoom in so that the hand and the other object occupy most of the frame. The camera can also be reoriented so that the hand and the other object remain in the center of the field of view. The distance between two objects in a camera's field of view can be determined and a parameter adjusted based thereon. In particular, the pan and/or zoom levels of the camera may be adjusted in accordance with the distance.

Classes IPC  ?

  • H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
  • G06T 7/50 - Récupération de la profondeur ou de la forme
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras

40.

Resource-responsive motion capture

      
Numéro d'application 17865283
Numéro de brevet 11775078
Statut Délivré - en vigueur
Date de dépôt 2022-07-14
Date de la première publication 2022-11-10
Date d'octroi 2023-10-03
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

The technology disclosed relates to operating a motion-capture system responsive to available computational resources. In particular, it relates to assessing a level of image acquisition and image-analysis resources available using benchmarking of system components. In response, one or more image acquisition parameters and/or image-analysis parameters are adjusted. Acquisition and/or analysis of image data are then made compliant with the adjusted image acquisition parameters and/or image-analysis parameters. In some implementations, image acquisition parameters include frame resolution and frame capture rate and image-analysis parameters include analysis algorithm and analysis density.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface

41.

Systems and Methods of Creating a Realistic Displacement of a Virtual Object in Virtual Reality/Augmented Reality Environments

      
Numéro d'application 17867648
Statut En instance
Date de dépôt 2022-07-18
Date de la première publication 2022-11-10
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Marcolina, Alex
  • Holz, David S.

Abrégé

The technology disclosed relates to a method of realistic displacement of a virtual object for an interaction between a control object in a three-dimensional (3D) sensory space and the virtual object in a virtual space that the control object interacts with. In particular, it relates to detecting free-form gestures of a control object in a three-dimensional (3D) sensory space and generating for display a 3D solid control object model for the control object during the free-form gestures, including sub-components of the control object and in response to detecting a 2D sub-component free-form gesture of the control object in the 3D sensory space in virtual contact with the virtual object, depicting, in the generated display, the virtual contact and resulting rotation of the virtual object by the 3D solid control object model.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06T 17/10 - Description de volumes, p.ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties

42.

Systems and methods for machine control

      
Numéro d'application 17862212
Numéro de brevet 11720180
Statut Délivré - en vigueur
Date de dépôt 2022-07-11
Date de la première publication 2022-11-03
Date d'octroi 2023-08-08
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

A region of space may be monitored for the presence or absence of one or more control objects, and object attributes and changes thereto may be interpreted as control information provided as input to a machine or application. In some embodiments, the region is monitored using a combination of scanning and image-based sensing.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06V 10/145 - Caractéristiques optiques de l’appareil qui effectue l’acquisition ou des dispositifs d’éclairage Éclairage spécialement adapté à la reconnaissance de formes, p.ex. utilisant des réseaux
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p.ex. occupants de véhicules automobiles ou piétons; Parties du corps, p.ex. mains

43.

Automotive and industrial motion sensory device

      
Numéro d'application 17848181
Numéro de brevet 11749026
Statut Délivré - en vigueur
Date de dépôt 2022-06-23
Date de la première publication 2022-10-06
Date d'octroi 2023-09-05
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Schunick, Justin
  • Roy, Neeloy
  • Zheng, Chen
  • Travis, Ward

Abrégé

The technology disclosed relates to highly functional/highly accurate motion sensory control devices for use in automotive and industrial control systems capable of capturing and providing images to motion capture systems that detect gestures in a three dimensional (3D) sensory space.

Classes IPC  ?

  • G06F 3/042 - Numériseurs, p.ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • G01P 13/00 - Indication ou enregistrement de l'existence ou de l'absence d'un mouvement; Indication ou enregistrement de la direction d'un mouvement
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 20/59 - Contexte ou environnement de l’image à l’intérieur d’un véhicule, p.ex. concernant l’occupation des sièges, l’état du conducteur ou les conditions de l’éclairage intérieur
  • H04N 23/11 - Caméras ou modules de caméras comprenant des capteurs d'images électroniques; Leur commande pour générer des signaux d'image à partir de différentes longueurs d'onde pour générer des signaux d'image à partir de longueurs d'onde de lumière visible et infrarouge
  • G06T 7/20 - Analyse du mouvement
  • H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c. à d. systèmes dans lesquels le signal vidéo n'est pas diffusé

44.

Determining spans and span lengths of a control object in a free space gesture control environment

      
Numéro d'application 17100786
Numéro de brevet 11461966
Statut Délivré - en vigueur
Date de dépôt 2020-11-20
Date de la première publication 2022-10-04
Date d'octroi 2022-10-04
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Horowitz, Kevin A
  • Holz, David S

Abrégé

Free space machine interface and control can be facilitated by predictive entities useful in interpreting a control object's position and/or motion (including objects having one or more articulating members, i.e., humans and/or animals and/or machines). Predictive entities can be driven using motion information captured using image information or the equivalents. Predictive information can be improved applying techniques for correlating with information from observations.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 17/10 - Description de volumes, p.ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]
  • G06T 7/593 - Récupération de la profondeur ou de la forme à partir de plusieurs images à partir d’images stéréo
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p.ex. le suivi des coins ou des segments
  • G06T 7/194 - Découpage; Détection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/136 - Découpage; Détection de bords impliquant un seuillage
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06T 17/20 - Description filaire, p.ex. polygonalisation ou tessellation
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

45.

Free-space user interface and control using virtual constructs

      
Numéro d'application 17833556
Numéro de brevet 11874970
Statut Délivré - en vigueur
Date de dépôt 2022-06-06
Date de la première publication 2022-09-22
Date d'octroi 2024-01-16
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Bedikian, Raffi
  • Marsden, Jonathan
  • Mertens, Keith
  • Holz, David

Abrégé

During control of a user interface via free-space motions of a hand or other suitable control object, switching between control modes can be facilitated by tracking the control object's movements relative to, and its penetration of, a virtual control construct (such as a virtual surface construct). The position of the virtual control construct can be updated, continuously or from time to time, based on the control object's location.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p.ex. glissement, rotation, agrandissement ou changement de couleur

46.

Rerendering a position of a hand to decrease a size of a hand to create a realistic virtual/augmented reality environment

      
Numéro d'application 17666533
Numéro de brevet 11954808
Statut Délivré - en vigueur
Date de dépôt 2022-02-07
Date de la première publication 2022-09-01
Date d'octroi 2024-04-09
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Marcolina, Alex
  • Holz, David

Abrégé

The technology disclosed relates to a method of realistic rendering of a real object as a virtual object in a virtual space using an offset in the position of the hand in a three-dimensional (3D) sensory space. An offset between expected positions of the eye(s) of a wearer of a head mounted device and a sensor attached to the head mounted device for sensing a position of at least one hand in a three-dimensional (3D) sensory space is determined. A position of the hand in the three-dimensional (3D) sensory space can be sensed using a sensor. The sensed position of the hand can be transformed by the offset into a re-rendered position of the hand as would appear to the wearer of the head mounted device if the wearer were looking at the actual hand. The re-rendered hand can be depicted to the wearer of the head mounted device.

Classes IPC  ?

  • G09G 5/00 - Dispositions ou circuits de commande de l'affichage communs à l'affichage utilisant des tubes à rayons cathodiques et à l'affichage utilisant d'autres moyens de visualisation
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 20/20 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

47.

METHOD FOR CREATING A GESTURE LIBRARY

      
Numéro d'application 17741076
Statut En instance
Date de dépôt 2022-05-10
Date de la première publication 2022-08-25
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed relates to the creation of a gesture library for subsequent use in filtering gestures. In particular, the methods disclosed here generate and store gestures and their characteristic values to create a set of user-defined reference gestures that can be compared against characteristics of actual gestures performed in a 3D sensory space. Based on these comparisons, a set of gestures of interest may be filtered from all the gestures performed in the 3D sensory space. The technology disclosed also relates to customizing gesture interpretation for a particular user, and to setting parameters for recognizing gestures by prompting the user to select values for characteristics of the gestures. In one implementation, the technology disclosed includes performing characteristic focused demonstrations of boundaries of the gesture. It further includes testing the interpretation of gestures by prompting the user to perform complete gesture demonstrations and receiving user evaluation regarding the interpretation.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

48.

Method and apparatus for calibrating augmented reality headsets

      
Numéro d'application 17741096
Numéro de brevet 11798141
Statut Délivré - en vigueur
Date de dépôt 2022-05-10
Date de la première publication 2022-08-25
Date d'octroi 2023-10-24
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Selstad, Johnathon Scott
  • Holz, David Samuel

Abrégé

An AR calibration system for correcting AR headset distortions. A calibration image is provided to an external screen and viewable through a headset reflector, and an inverse of the calibration image is provided to a headset display, reflected off the reflector and observed by a camera of the system while it is simultaneously observing the calibration image on the external screen. One or more cameras are located to represent a user's point of view and aligned to observe the inverse calibration image projected onto the reflector. A distortion mapping transform is created using an algorithm to search through projection positions of the inverse calibration image until the inverse image observed by the camera(s) cancels out an acceptable portion of the calibration image provided to the external screen as observed through the reflector by the camera, and the transform is used by the headset, to compensate for distortions.

Classes IPC  ?

  • G06T 5/00 - Amélioration ou restauration d'image
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

49.

Identifying an object in a field of view

      
Numéro d'application 17734973
Numéro de brevet 11809634
Statut Délivré - en vigueur
Date de dépôt 2022-05-02
Date de la première publication 2022-08-11
Date d'octroi 2023-11-07
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

The technology disclosed relates to identifying an object in a field of view of a camera. In particular, it relates to identifying a display in the field of view of the camera. This is achieved by monitoring a space including acquiring a series of image frames of the space using the camera and detecting one or more light sources in the series of image frames. Further, one or more frequencies of periodic intensity or brightness variations, also referred to as ‘refresh rate’, of light emitted from the light sources is measured. Based on the one or more frequencies of periodic intensity variations of light emitted from the light sources, at least one display that includes the light sources is identified.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/55 - Récupération de la profondeur ou de la forme à partir de plusieurs images
  • G06F 3/042 - Numériseurs, p.ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • H04N 23/70 - Circuits de compensation de la variation de luminosité dans la scène
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G09G 3/34 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques pour la présentation d'un ensemble de plusieurs caractères, p.ex. d'une page, en composant l'ensemble par combinaison d'éléments individuels disposés en matrice en commandant la lumière provenant d'une source indépendante
  • H04N 23/71 - Circuits d'évaluation de la variation de luminosité
  • H04N 23/73 - Circuits de compensation de la variation de luminosité dans la scène en influençant le temps d'exposition
  • H04N 23/74 - Circuits de compensation de la variation de luminosité dans la scène en influençant la luminosité de la scène à l'aide de moyens d'éclairage
  • G06V 20/20 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans les scènes de réalité augmentée

50.

Method and system for controlling a machine according to a characteristic of a control object

      
Numéro d'application 17666534
Numéro de brevet 11740705
Statut Délivré - en vigueur
Date de dépôt 2022-02-07
Date de la première publication 2022-07-28
Date d'octroi 2023-08-29
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Bedikian, Raffi
  • Marsden, Jonathan
  • Mertens, Keith
  • Holz, David
  • Sills, Maxwell
  • Perez, Matias
  • Hare, Gabriel
  • Julian, Ryan

Abrégé

A method and system are provided for controlling a machine using gestures. The method includes sensing a variation of position of a control object using an imaging system, determining, from the variation, one or more primitives describing a characteristic of a control object moving in space, comparing the one or more primitives to one or more gesture templates in a library of gesture templates, selecting, based on a result of the comparing, one or more gesture templates corresponding to the one or more primitives, and providing at least one gesture template of the selected one or more gesture templates as an indication of a command to issue to a machine under control responsive to the variation.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

51.

Predictive information for free space gesture control and communication

      
Numéro d'application 17700199
Numéro de brevet 11776208
Statut Délivré - en vigueur
Date de dépôt 2022-03-21
Date de la première publication 2022-07-07
Date d'octroi 2023-10-03
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Horowitz, Kevin A.
  • Holz, David S.

Abrégé

Free space machine interface and control can be facilitated by predictive entities useful in interpreting a control object's position and/or motion (including objects having one or more articulating members, i.e., humans and/or animals and/or machines). Predictive entities can be driven using motion information captured using image information or the equivalents. Predictive information can be improved applying techniques for correlating with information from observations.

Classes IPC  ?

  • G06T 17/10 - Description de volumes, p.ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]
  • G06T 17/20 - Description filaire, p.ex. polygonalisation ou tessellation
  • G06T 7/593 - Récupération de la profondeur ou de la forme à partir de plusieurs images à partir d’images stéréo
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p.ex. le suivi des coins ou des segments
  • G06T 7/194 - Découpage; Détection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/136 - Découpage; Détection de bords impliquant un seuillage
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

52.

CHANGING A PRESENTATION PROPERTY OF A DYNAMIC INTERACTIVE OBJECT

      
Numéro d'application 17689950
Statut En instance
Date de dépôt 2022-03-08
Date de la première publication 2022-06-23
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

A method is provided, which includes identifying, for presentation, separate interactive objects, each separate interactive object being associated with a particular finger of two or more fingers, wherein a position of each separate interactive object changes in response to a movement of the associated finger of the two or more fingers, obtaining, for at least one separate interactive object, a determination of a property of a screen area surrounding the at least one separate interactive object, and modifying a presentation property of the at least one separate interactive object based on the determined property of the screen area surrounding the at least one separate interactive object. The property of the screen area surrounding the at least one separate interactive object is determined based on at least one of: a brightness, a color and a pattern of the screen area surrounding the at least one separate interactive object.

Classes IPC  ?

  • G06F 3/04812 - Techniques d’interaction fondées sur l’aspect ou le comportement du curseur, p.ex. sous l’influence de la présence des objets affichés

53.

Differentiating a detected object from a background using a gaussian brightness falloff pattern

      
Numéro d'application 17693200
Numéro de brevet 11782516
Statut Délivré - en vigueur
Date de dépôt 2022-03-11
Date de la première publication 2022-06-23
Date d'octroi 2023-10-10
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Yang, Hua

Abrégé

A method for detecting a finger is provided. The method includes obtaining a plurality of digital images including a first digital image captured by a camera from a field of view containing a background and a hand including at least one finger, and obtaining an identification of pixels of the plurality of digital images that correspond to at least one finger that is visible in the plurality of digital images rather than to the background, the pixels being identified by: obtaining, from the digital images, a Gaussian brightness falloff pattern indicative of at least one finger, identifying an axis of the at least one finger based on the obtained Gaussian brightness falloff pattern indicative of the at least one finger without identifying edges of the at least one finger, and identifying the pixels that correspond to the at least one finger based on the identified axis.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p.ex. le suivi des coins ou des segments
  • G06T 7/254 - Analyse du mouvement impliquant de la soustraction d’images
  • H04N 13/254 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques en combinaison avec des sources de rayonnement électromagnétique pour l’éclairage du sujet
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/215 - Découpage basé sur le mouvement
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06V 20/64 - Objets tridimensionnels
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p.ex. occupants de véhicules automobiles ou piétons; Parties du corps, p.ex. mains
  • H04N 23/661 - Transmission des signaux de commande de la caméra par le biais de réseaux, p. ex. la commande via Internet
  • G06T 7/194 - Découpage; Détection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/10 - Découpage; Détection de bords
  • G06T 7/262 - Analyse du mouvement utilisant des procédés de transformation de domaine, p.ex. des procédés de transformée de Fourier
  • G06T 7/33 - Détermination des paramètres de transformation pour l'alignement des images, c. à d. recalage des images utilisant des procédés basés sur les caractéristiques
  • G06T 7/37 - Détermination des paramètres de transformation pour l'alignement des images, c. à d. recalage des images utilisant des procédés de transformation de domaine
  • G06T 7/90 - Détermination de caractéristiques de couleur
  • G06F 18/00 - Reconnaissance de formes

54.

DETERMINING A PRIMARY CONTROL MODE OF CONTROLLING AN ELECTRONIC DEVICE USING 3D GESTURES OR USING CONTROL MANIPULATIONS FROM A USER MANIPULABLE HAND-HELD INPUT DEVICE

      
Numéro d'application 17532990
Statut En instance
Date de dépôt 2021-11-22
Date de la première publication 2022-05-19
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

A method and system for controlling an electronic device using gesture and/or a device is provided. The method includes capturing, in a 3D sensor space, an image including a user manipulable hand-held input device and a body part of a user, finding an entry in a database of multiple user manipulable hand-held input devices that matches the image of the user manipulable hand-held input device, wherein each user manipulable hand-held input device, having an entry in the database, respectively generates signals in response to performing one or more specific control manipulations, determining a primary control mode of primarily controlling the electronic device using 3D gestures or using control manipulations directly from the user manipulable hand-held input device, the primary control mode being determined based on a predetermined priority level associated with the user manipulable hand-held input device and controlling the electronic device using the determined primary control mode.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 13/10 - Commande par programme pour dispositifs périphériques
  • G06F 9/4401 - Amorçage

55.

Interaction engine for creating a realistic experience in virtual reality/augmented reality environments

      
Numéro d'application 17586622
Numéro de brevet 11941163
Statut Délivré - en vigueur
Date de dépôt 2022-01-27
Date de la première publication 2022-05-12
Date d'octroi 2024-03-26
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Johnston, John Adrian Arthur
  • Selstad, Johnathon Scott
  • Marcolina, Alex

Abrégé

The technology disclosed relates to a method of realistic simulation of real world interactions as virtual interactions between a control object sensed acting in a three-dimensional (3D) sensory space and the virtual object in a virtual space that the control object interacts with. In particular, it relates to detecting free-form gestures of a control object in a three-dimensional (3D) sensory space and generating for display a 3D solid control object model for the control object during the free-form gestures, including sub-components of the control object and in response to detecting a free-form gesture of the control object in the 3D sensory space in virtual contact with the virtual object, depicting, in the generated display, the virtual contact and resulting motions of the virtual object by the 3D solid control object model.

Classes IPC  ?

  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

56.

Cursor mode switching

      
Numéro d'application 17542990
Numéro de brevet 11429194
Statut Délivré - en vigueur
Date de dépôt 2021-12-06
Date de la première publication 2022-03-24
Date d'octroi 2022-08-30
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

Methods and systems for processing input from an image-capture device for gesture-recognition. The method further includes computationally interpreting user gestures in accordance with a first mode of operation; analyzing the path of movement of an object to determine an intent of a user to change modes of operation; and, upon determining an intent of the user to change modes of operation, subsequently interpreting user gestures in accordance with the second mode of operation.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateur; Leurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p.ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaiso
  • B65D 75/58 - Dispositifs d'ouverture ou servant à retirer le contenu, ajoutés ou incorporés lors de la confection du paquet
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

57.

INTERACTIONS WITH VIRTUAL OBJECTS FOR MACHINE CONTROL

      
Numéro d'application 17532976
Statut En instance
Date de dépôt 2021-11-22
Date de la première publication 2022-03-17
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Bedikian, Raffi
  • Gasinski, Adrian
  • Sills, Maxwell
  • Yang, Hua
  • Hare, Gabriel

Abrégé

The technology disclosed relates to manipulating a virtual object. In particular, it relates to detecting a hand in a three-dimensional (3D) sensory space and generating a predictive model of the hand, and using the predictive model to track motion of the hand. The predictive model includes positions of calculation points of fingers, thumb and palm of the hand. The technology disclosed relates to dynamically selecting at least one manipulation point proximate to a virtual object based on the motion tracked by the predictive model and positions of one or more of the calculation points, and manipulating the virtual object by interaction between at least some of the calculation points of the predictive model and the dynamically selected manipulation point.

Classes IPC  ?

  • G06N 5/04 - Modèles d’inférence ou de raisonnement
  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/042 - Numériseurs, p.ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur

58.

User-defined virtual interaction space and manipulation of virtual configuration

      
Numéro d'application 17486755
Numéro de brevet 11567583
Statut Délivré - en vigueur
Date de dépôt 2021-09-27
Date de la première publication 2022-01-13
Date d'octroi 2023-01-31
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Sills, Maxwell

Abrégé

The technology disclosed relates to creating user-defined interaction spaces and modalities in a three dimensional (3D) sensor space in response to control gestures. It also relates to controlling virtual cameras in the 3D sensor space using control gestures and manipulating controls of the virtual cameras through the control gestures. In particular, it relates to defining one or more spatial attributes of the interaction spaces and modalities in response to one or more gesture parameters of the control gesture. It also particularly relates to defining one or more visual parameters of a virtual camera in response to one or more gesture parameters of the control gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p.ex. glissement, rotation, agrandissement ou changement de couleur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06T 15/20 - Calcul de perspectives

59.

Drift cancelation for portable object detection and tracking

      
Numéro d'application 17409675
Numéro de brevet 11537196
Statut Délivré - en vigueur
Date de dépôt 2021-08-23
Date de la première publication 2021-12-09
Date d'octroi 2022-12-27
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed can provide capabilities such as using motion sensors and/or other types of sensors coupled to a motion-capture system to monitor motions within a real environment. A virtual object can be projected to a user of a portable device integrated into an augmented rendering of a real environment about the user. Motion information of a user body portion is determined based at least in part upon sensory information received from imaging or acoustic sensory devices. Control information is communicated to a system based in part on a combination of the motion of the portable device and the detected motion of the user. The virtual device experience can be augmented in some implementations by the addition of haptic, audio and/or other sensory information projectors.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G02B 27/01 - Dispositifs d'affichage "tête haute"

60.

INTERACTING WITH A MACHINE USING GESTURES IN FIRST AND SECOND USER-SPECIFIC VIRTUAL PLANES

      
Numéro d'application 17409767
Statut En instance
Date de dépôt 2021-08-23
Date de la première publication 2021-12-09
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Dabir, Avinash
  • Durdik, Paul
  • Mertens, Keith
  • Zagorsek, Michael

Abrégé

Methods and systems for processing an input are disclosed that detect a portion of a hand and/or other detectable object in a region of space monitored by a 3D sensor. The method further includes determining a zone corresponding to the region of space in which the portion of the hand or other detectable object was detected. Also, the method can include determining from the zone a correct way to interpret inputs made by a position, shape or a motion of the portion of the hand or other detectable object.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur

61.

Wearable augmented reality devices with object detection and tracking

      
Numéro d'application 17384699
Numéro de brevet 11676349
Statut Délivré - en vigueur
Date de dépôt 2021-07-23
Date de la première publication 2021-11-11
Date d'octroi 2023-06-13
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed can provide capabilities to view and/or interact with the real world to the user of a wearable (or portable) device using a sensor configured to capture motion and/or determining the path of an object based on imaging, acoustic or vibrational waves. Implementations can enable improved user experience, greater safety, greater functionality to users of virtual reality for machine control and/or machine communications applications using wearable (or portable) devices, e.g., head mounted devices (HMDs), wearable goggles, watch computers, smartphones, and so forth, or mobile devices, e.g., autonomous and semi-autonomous robots, factory floor material handling systems, autonomous mass-transit vehicles, automobiles (human or machine driven), and so forth, equipped with suitable sensors and processors employing optical, audio or vibrational detection.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G09G 5/18 - Circuits de synchronisation pour l'affichage à balayage par trame
  • G06F 3/147 - Sortie numérique vers un dispositif de visualisation utilisant des panneaux de visualisation

62.

User-defined virtual interaction space and manipulation of virtual cameras with vectors

      
Numéro d'application 17378428
Numéro de brevet 11460929
Statut Délivré - en vigueur
Date de dépôt 2021-07-16
Date de la première publication 2021-11-04
Date d'octroi 2022-10-04
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Sills, Maxwell
  • Durdik, Paul

Abrégé

The technology disclosed relates to creating user-defined interaction spaces and modalities in a three dimensional (3D) sensor space in response to control gestures. It also relates to controlling virtual cameras in the 3D sensor space using control gestures and manipulating controls of the virtual cameras through the control gestures. In particular, it relates to defining one or more spatial attributes of the interaction spaces and modalities in response to one or more gesture parameters of the control gesture. It also particularly relates to defining one or more visual parameters of a virtual camera in response to one or more gesture parameters of the control gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p.ex. glissement, rotation, agrandissement ou changement de couleur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06T 15/20 - Calcul de perspectives

63.

Velocity field interaction for free space gesture interface and control

      
Numéro d'application 17379915
Numéro de brevet 11726575
Statut Délivré - en vigueur
Date de dépôt 2021-07-19
Date de la première publication 2021-11-04
Date d'octroi 2023-08-15
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Holz, David S.
  • Sills, Maxwell

Abrégé

The technology disclosed relates to automatically interpreting a gesture of a control object in a three dimensional sensor space by sensing a movement of the control object in the three dimensional sensor space, sensing orientation of the control object, defining a control plane tangential to a surface of the control object and interpreting the gesture based on whether the movement of the control object is more normal to the control plane or more parallel to the control plane.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/0483 - Interaction avec des environnements structurés en pages, p.ex. métaphore livresque
  • G06F 3/0485 - Défilement ou défilement panoramique
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p.ex. interaction avec des règles ou des cadrans
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

64.

Determining Imperfections in an Imaging Camera for Determining the Orientation of Objects in Space

      
Numéro d'application 17344835
Statut En instance
Date de dépôt 2021-06-10
Date de la première publication 2021-09-30
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

A method and system determines object orientation using a light source to create a shadow line extending from the light source. A camera captures an image including the shadow line on an object surface. An orientation module determines the surface orientation from the shadow line. In some examples a transparency imperfection in a window through which a camera receives light can be detected and a message sent to a user as to the presence of a light-blocking or light-distorting substance or particle. A system can control illumination while imaging an object in space using a light source mounted to a support structure so a camera captures an image of the illuminated object. Direct illumination of the camera by light from the light source can be prevented such as by blocking the light or using a light-transmissive window adjacent the camera to reject light transmitted directly from the light source.

Classes IPC  ?

  • G01S 3/786 - Systèmes pour déterminer une direction ou une déviation par rapport à une direction prédéterminée utilisant le réglage d'une orientation des caractéristiques de directivité d'un détecteur ou d'un système de détecteurs afin d'obtenir une valeur désirée du signal provenant de ce détecteur ou de ce système de détecteurs la valeur désirée étant maintenue automatiquement
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras

65.

Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments

      
Numéro d'application 17345919
Numéro de brevet 11782513
Statut Délivré - en vigueur
Date de dépôt 2021-06-11
Date de la première publication 2021-09-30
Date d'octroi 2023-10-10
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David Samuel

Abrégé

The technology disclosed relates to user interfaces for controlling augmented reality (AR) or virtual reality (VR) environments. Real and virtual objects can be seamlessly integrated to form an augmented reality by tracking motion of one or more real objects within view of a wearable sensor system. Switching the AR/VR presentation on or off to interact with the real world surrounding them, for example to drink some soda, can be addressed with a convenient mode switching gesture associated with switching between operational modes in a VR/AR enabled device.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

66.

Adjusting motion capture based on the distance between tracked objects

      
Numéro d'application 17246522
Numéro de brevet 11418706
Statut Délivré - en vigueur
Date de dépôt 2021-04-30
Date de la première publication 2021-08-19
Date d'octroi 2022-08-16
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed relates to adjusting the monitored field of view of a camera and/or a view of a virtual scene from a point of view of a virtual camera based on the distance between tracked objects. For example, if the user's hand is being tracked for gestures, the closer the hand gets to another object, the tighter the frame can become—i.e., the more the camera can zoom in so that the hand and the other object occupy most of the frame. The camera can also be reoriented so that the hand and the other object remain in the center of the field of view. The distance between two objects in a camera's field of view can be determined and a parameter of a motion-capture system adjusted based thereon. In particular, the pan and/or zoom levels of the camera may be adjusted in accordance with the distance.

Classes IPC  ?

  • G06T 7/50 - Récupération de la profondeur ou de la forme
  • H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras

67.

Predictive information for free space gesture control and communication

      
Numéro d'application 17308903
Numéro de brevet 11568105
Statut Délivré - en vigueur
Date de dépôt 2021-05-05
Date de la première publication 2021-08-19
Date d'octroi 2023-01-31
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Horowitz, Kevin
  • Bedikian, Raffi
  • Yang, Hua

Abrégé

The technology disclosed relates to simplifying updating of a predictive model using clustering observed points. In particular, it relates to observing a set of points in 3D sensory space, determining surface normal directions from the points, clustering the points by their surface normal directions and adjacency, accessing a predictive model of a hand, refining positions of segments of the predictive model, matching the clusters of the points to the segments, and using the matched clusters to refine the positions of the matched segments. It also relates to distinguishing between alternative motions between two observed locations of a control object in a 3D sensory space by accessing first and second positions of a segment of a predictive model of a control object such that motion between the first position and the second position was at least partially occluded from observation in a 3D sensory space.

Classes IPC  ?

  • G06F 17/10 - Opérations mathématiques complexes
  • G06F 30/20 - Optimisation, vérification ou simulation de l’objet conçu
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 20/64 - Objets tridimensionnels
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

68.

Three Dimensional (3D) Modeling of a Complex Control Object

      
Numéro d'application 17234594
Statut En instance
Date de dépôt 2021-04-19
Date de la première publication 2021-08-05
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Horowitz, Kevin A.

Abrégé

The technology disclosed relates to automatically (e.g., programmatically) initializing predictive information for tracking a complex control object (e.g., hand, hand and tool combination, robot end effector) based upon information about characteristics of the object determined from sets of collected observed information. Automated initialization techniques obviate the need for special and often bizarre start-up rituals (place your hands on the screen at the places indicated during a full moon, and so forth) required by conventional techniques. In implementations, systems can refine initial predictive information to reflect an observed condition based on comparison of the observed with an analysis of sets of collected observed information.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p.ex. le suivi des coins ou des segments

69.

Systems and methods of tracking moving hands and recognizing gestural interactions

      
Numéro d'application 17189152
Numéro de brevet 11586292
Statut Délivré - en vigueur
Date de dépôt 2021-03-01
Date de la première publication 2021-06-17
Date d'octroi 2023-02-21
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Horowitz, Kevin A.
  • Perez, Matias
  • Bedikian, Raffi
  • Holz, David S.
  • Hare, Gabriel A.

Abrégé

The technology disclosed relates to relates to providing command input to a machine under control. It further relates to gesturally interacting with the machine. The technology disclosed also relates to providing monitoring information about a process under control. The technology disclosed further relates to providing biometric information about an individual. The technology disclosed yet further relates to providing abstract features information (pose, grab strength, pinch strength, confidence, and so forth) about an individual.

Classes IPC  ?

  • G09G 5/00 - Dispositions ou circuits de commande de l'affichage communs à l'affichage utilisant des tubes à rayons cathodiques et à l'affichage utilisant d'autres moyens de visualisation
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06T 7/20 - Analyse du mouvement
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • H04N 13/296 - Leur synchronisation; Leur commande
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateur; Leurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p.ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaiso
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p.ex. occupants de véhicules automobiles ou piétons; Parties du corps, p.ex. mains
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p.ex. le suivi des coins ou des segments
  • G01S 3/00 - Radiogoniomètres pour déterminer la direction d'où proviennent des ondes infrasonores, sonores, ultrasonores ou électromagnétiques ou des émissions de particules sans caractéristiques de direction

70.

Systems and methods of creating a realistic displacement of a virtual object in virtual reality/augmented reality environments

      
Numéro d'application 17187676
Numéro de brevet 11392212
Statut Délivré - en vigueur
Date de dépôt 2021-02-26
Date de la première publication 2021-06-17
Date d'octroi 2022-07-19
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Marcolina, Alex
  • Holz, David S.

Abrégé

The technology disclosed relates to a method of realistic displacement of a virtual object for an interaction between a control object in a three-dimensional (3D) sensory space and the virtual object in a virtual space that the control object interacts with. In particular, it relates to detecting free-form gestures of a control object in a three-dimensional (3D) sensory space and generating for display a 3D solid control object model for the control object during the free-form gestures, including sub-components of the control object and in response to detecting a 2D sub-component free-form gesture of the control object in the 3D sensory space in virtual contact with the virtual object, depicting, in the generated display, the virtual contact and resulting rotation of the virtual object by the 3D solid control object model.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06T 17/10 - Description de volumes, p.ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G02B 27/01 - Dispositifs d'affichage "tête haute"

71.

Dynamic interactive objects

      
Numéro d'application 17188915
Numéro de brevet 11275480
Statut Délivré - en vigueur
Date de dépôt 2021-03-01
Date de la première publication 2021-06-17
Date d'octroi 2022-03-15
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

Aspects of the systems and methods are described providing for modifying a presented interactive element or object, such as a cursor, based on user-input gestures, the presented environment of the cursor, or any combination thereof. The color, size, shape, transparency, and/or responsiveness of the cursor may change based on the gesture velocity, acceleration, or path. In one implementation, the cursor “stretches” to graphically indicate the velocity and/or acceleration of the gesture. The display properties of the cursor may also change if, for example, the area of the screen occupied by the cursor is dark, bright, textured, or is otherwise complicated. In another implementation, the cursor is drawn using sub-pixel smoothing to improve its visual quality.

Classes IPC  ?

  • G06F 3/048 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI]
  • G06F 3/04812 - Techniques d’interaction fondées sur l’aspect ou le comportement du curseur, p.ex. sous l’influence de la présence des objets affichés

72.

Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation

      
Numéro d'application 17189111
Numéro de brevet 11435788
Statut Délivré - en vigueur
Date de dépôt 2021-03-01
Date de la première publication 2021-06-17
Date d'octroi 2022-09-06
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Durdik, Paul

Abrégé

The technology disclosed relates to enhancing the fields of view of one or more cameras of a gesture recognition system for augmenting the three-dimensional (3D) sensory space of the gesture recognition system. The augmented 3D sensory space allows for inclusion of previously uncaptured of regions and points for which gestures can be interpreted i.e. blind spots of the cameras of the gesture recognition system. Some examples of such blind spots include areas underneath the cameras and/or within 20-85 degrees of a tangential axis of the cameras. In particular, the technology disclosed uses a Fresnel prismatic element and/or a triangular prism element to redirect the optical axis of the cameras, giving the cameras fields of view that cover at least 45 to 80 degrees from tangential to the vertical axis of a display screen on which the cameras are mounted.

Classes IPC  ?

  • G02B 5/04 - Prismes
  • G02B 7/18 - Montures, moyens de réglage ou raccords étanches à la lumière pour éléments optiques pour miroirs
  • G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
  • H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
  • G06F 3/042 - Numériseurs, p.ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • H04N 5/247 - Disposition des caméras de télévision

73.

Cursor mode switching

      
Numéro d'application 17155019
Numéro de brevet 11194404
Statut Délivré - en vigueur
Date de dépôt 2021-01-21
Date de la première publication 2021-06-10
Date d'octroi 2021-12-07
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

Methods and systems for processing input from an image-capture device for gesture-recognition. The method further includes computationally interpreting user gestures in accordance with a first mode of operation; analyzing the path of movement of an object to determine an intent of a user to change modes of operation; and, upon determining an intent of the user to change modes of operation, subsequently interpreting user gestures in accordance with the second mode of operation.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
  • B65D 75/58 - Dispositifs d'ouverture ou servant à retirer le contenu, ajoutés ou incorporés lors de la confection du paquet
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateur; Leurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p.ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaiso

74.

User interface for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments

      
Numéro d'application 17175439
Numéro de brevet 11599237
Statut Délivré - en vigueur
Date de dépôt 2021-02-12
Date de la première publication 2021-06-03
Date d'octroi 2023-03-07
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Fox, Barrett
  • Hay, Kyle A.
  • Hare, Gabriel A.
  • Yu, Wilbur Yung Sheng
  • Edelhart, Dave
  • Medich, Jody
  • Plemmons, Daniel

Abrégé

The technology disclosed relates to user interfaces for controlling augmented reality environments. Real and virtual objects can be seamlessly integrated to form an augmented reality by tracking motion of one or more real objects within view of a wearable sensor system using a combination a RGB (red, green, and blue) and IR (infrared) pixels of one or more cameras. It also relates to enabling multi-user collaboration and interaction in an immersive virtual environment. In particular, it relates to capturing different sceneries of a shared real world space from the perspective of multiple users. The technology disclosed further relates to sharing content between wearable sensor systems. In particular, it relates to capturing images and video streams from the perspective of a first user of a wearable sensor system and sending an augmented version of the captured images and video stream to a second user of the wearable sensor system.

Classes IPC  ?

  • G06F 3/04812 - Techniques d’interaction fondées sur l’aspect ou le comportement du curseur, p.ex. sous l’influence de la présence des objets affichés
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/0482 - Interaction avec des listes d’éléments sélectionnables, p.ex. des menus
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p.ex. interaction avec des règles ou des cadrans
  • G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure

75.

User-defined virtual interaction space and manipulation of virtual cameras in the interaction space

      
Numéro d'application 17155064
Numéro de brevet 11500473
Statut Délivré - en vigueur
Date de dépôt 2021-01-21
Date de la première publication 2021-05-13
Date d'octroi 2022-11-15
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Sills, Maxwell

Abrégé

The technology disclosed relates to creating user-defined interaction spaces and modalities in a three dimensional (3D) sensor space in response to control gestures. It also relates to controlling virtual cameras in the 3D sensor space using control gestures and manipulating controls of the virtual cameras through the control gestures. In particular, it relates to defining one or more spatial attributes of the interaction spaces and modalities in response to one or more gesture parameters of the control gesture. It also particularly relates to defining one or more visual parameters of a virtual camera in response to one or more gesture parameters of the control gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport
  • G06T 15/20 - Calcul de perspectives
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p.ex. glissement, rotation, agrandissement ou changement de couleur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés

76.

Augmented reality with motion sensing

      
Numéro d'application 17133616
Numéro de brevet 11483538
Statut Délivré - en vigueur
Date de dépôt 2020-12-23
Date de la première publication 2021-04-22
Date d'octroi 2022-10-25
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Roy, Neeloy
  • He, Hongyuan

Abrégé

The technology relates to a motion sensory and imaging device capable of acquiring imaging information of the scene and providing at least a near real time pass-through of imaging information to a user. The sensory and imaging device can be used stand-alone or coupled to a wearable or portable device to create a wearable sensory system capable of presenting to the wearer the imaging information augmented with virtualized or created presentations of information.

Classes IPC  ?

  • H04N 13/239 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques utilisant deux capteurs d’images 2D dont la position relative est égale ou en correspondance à l’intervalle oculaire
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G02B 30/00 - Systèmes ou appareils optiques pour produire des effets tridimensionnels [3D], p.ex. des effets stéréoscopiques
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • H04N 5/225 - Caméras de télévision
  • H04N 5/33 - Transformation des rayonnements infrarouges
  • H04N 13/257 - Aspects en rapport avec la couleur
  • H04N 13/296 - Leur synchronisation; Leur commande
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • H04S 7/00 - Dispositions pour l'indication; Dispositions pour la commande, p.ex. pour la commande de l'équilibrage

77.

Systems and methods of free-space gestural interaction

      
Numéro d'application 17093490
Numéro de brevet 11567578
Statut Délivré - en vigueur
Date de dépôt 2020-11-09
Date de la première publication 2021-03-18
Date d'octroi 2023-01-31
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Yang, Hua
  • Kontsevich, Leonid
  • Donald, James
  • Holz, David S.
  • Marsden, Jonathan
  • Durdik, Paul

Abrégé

During control of a user interface via free-space motions of a hand or other suitable control object, switching between control modes can be facilitated by tracking the control object's movements relative to, and its contact with a “virtual touch plane or surface” (i.e., a plane, portion of a plane, and/or surface computationally defined in space, or corresponding to any physical surface).

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateur; Leurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p.ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaiso
  • G06F 3/0486 - Glisser-déposer
  • G06F 3/0354 - Dispositifs de pointage déplacés ou positionnés par l'utilisateur; Leurs accessoires avec détection des mouvements relatifs en deux dimensions [2D] entre le dispositif de pointage ou une partie agissante dudit dispositif, et un plan ou une surface, p.ex. souris 2D, boules traçantes, crayons ou palets

78.

Interaction engine for creating a realistic experience in virtual reality/augmented reality environments

      
Numéro d'application 17103734
Numéro de brevet 11237625
Statut Délivré - en vigueur
Date de dépôt 2020-11-24
Date de la première publication 2021-03-18
Date d'octroi 2022-02-01
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Johnston, John Adrian Arthur
  • Selstad, Johnathon Scott
  • Marcolina, Alex

Abrégé

The technology disclosed relates to a method of realistic simulation of real world interactions as virtual interactions between a control object sensed acting in a three-dimensional (3D) sensory space and the virtual object in a virtual space that the control object interacts with. In particular, it relates to detecting free-form gestures of a control object in a three-dimensional (3D) sensory space and generating for display a 3D solid control object model for the control object during the free-form gestures, including sub-components of the control object and in response to detecting a free-form gesture of the control object in the 3D sensory space in virtual contact with the virtual object, depicting, in the generated display, the virtual contact and resulting motions of the virtual object by the 3D solid control object model.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure

79.

Dynamic user interactions for display control and measuring degree of completeness of user gestures

      
Numéro d'application 17061117
Numéro de brevet 11269481
Statut Délivré - en vigueur
Date de dépôt 2020-10-01
Date de la première publication 2021-01-28
Date d'octroi 2022-03-08
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed relates to distinguishing meaningful gestures from proximate non-meaningful gestures in a three-dimensional (3D) sensory space. In particular, it relates to calculating spatial trajectories of different gestures and determining a dominant gesture based on magnitudes of the spatial trajectories. The technology disclosed also relates to uniformly responding to gestural inputs from a user irrespective of a position of the user. In particular, it relates to automatically adapting a responsiveness scale between gestures in a physical space and resulting responses in a gestural interface by automatically proportioning on-screen responsiveness to scaled movement distances of gestures in the physical space, user spacing with the 3D sensory space, or virtual object density in the gestural interface. The technology disclosed further relates to detecting if a user has intended to interact with a virtual object based on measuring a degree of completion of gestures and creating interface elements in the 3D space.

Classes IPC  ?

  • G06F 3/048 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI]
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p.ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04817 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport utilisant des icônes
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p.ex. interaction avec des règles ou des cadrans
  • G06F 3/0485 - Défilement ou défilement panoramique
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateur; Leurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p.ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaiso

80.

Predictive information for free space gesture control and communication

      
Numéro d'application 17060664
Numéro de brevet 11282273
Statut Délivré - en vigueur
Date de dépôt 2020-10-01
Date de la première publication 2021-01-21
Date d'octroi 2022-03-22
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Horowitz, Kevin A.
  • Holz, David S.

Abrégé

Free space machine interface and control can be facilitated by predictive entities useful in interpreting a control object's position and/or motion (including objects having one or more articulating members, i.e., humans and/or animals and/or machines). Predictive entities can be driven using motion information captured using image information or the equivalents. Predictive information can be improved applying techniques for correlating with information from observations.

Classes IPC  ?

  • G06T 7/13 - Détection de bords
  • G06T 17/10 - Description de volumes, p.ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]
  • G06T 17/20 - Description filaire, p.ex. polygonalisation ou tessellation
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
  • G06T 7/593 - Récupération de la profondeur ou de la forme à partir de plusieurs images à partir d’images stéréo
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p.ex. le suivi des coins ou des segments
  • G06T 7/194 - Découpage; Détection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/136 - Découpage; Détection de bords impliquant un seuillage
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties

81.

Identifying an object in a field of view

      
Numéro d'application 17061434
Numéro de brevet 11321577
Statut Délivré - en vigueur
Date de dépôt 2020-10-01
Date de la première publication 2021-01-21
Date d'octroi 2022-05-03
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

The technology disclosed relates to identifying an object in a field of view of a camera. In particular, it relates to identifying a display in the field of view of the camera. This is achieved by monitoring a space including acquiring a series of image frames of the space using the camera and detecting one or more light sources in the series of image frames. Further, one or more frequencies of periodic intensity or brightness variations, also referred to as ‘refresh rate’, of light emitted from the light sources is measured. Based on the one or more frequencies of periodic intensity variations of light emitted from the light sources, at least one display that includes the light sources is identified.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06K 9/46 - Extraction d'éléments ou de caractéristiques de l'image
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
  • H04N 5/235 - Circuits pour la compensation des variations de la luminance de l'objet
  • G06T 7/55 - Récupération de la profondeur ou de la forme à partir de plusieurs images
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/042 - Numériseurs, p.ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • G09G 3/34 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques pour la présentation d'un ensemble de plusieurs caractères, p.ex. d'une page, en composant l'ensemble par combinaison d'éléments individuels disposés en matrice en commandant la lumière provenant d'une source indépendante
  • G06K 9/52 - Extraction d'éléments ou de caractéristiques de l'image en déduisant des propriétés mathématiques ou géométriques de l'image complète

82.

Systems and methods of gestural interaction in a pervasive computing environment

      
Numéro d'application 17027366
Numéro de brevet 11561519
Statut Délivré - en vigueur
Date de dépôt 2020-09-21
Date de la première publication 2021-01-07
Date d'octroi 2023-01-24
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Gordon, Robert Samuel
  • Durdik, Paul Alan
  • Sills, Maxwell

Abrégé

The technology disclosed relates to selecting among devices room to interact with. It also relates operating a smart phone with reduced power consumption. It further relates to gesturally interacting with devices that lack gestural responsiveness. The technology disclosed also relates to distinguishing control gestures from proximate non-control gestures in a pervasive three dimensional (3D) sensory space. The technology disclosed further relates to selecting among virtual interaction modalities to interact with.

Classes IPC  ?

  • G05B 15/02 - Systèmes commandés par un calculateur électriques
  • H04L 12/28 - Réseaux de données à commutation caractérisés par la configuration des liaisons, p.ex. réseaux locaux [LAN Local Area Networks] ou réseaux étendus [WAN Wide Area Networks]

83.

Systems and Methods of Locating a Control Object Appendage in Three Dimensional (3D) Space

      
Numéro d'application 17010531
Statut En instance
Date de dépôt 2020-09-02
Date de la première publication 2020-12-24
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

Methods and systems for capturing motion and/or determining the shapes and positions of one or more objects in 3D space utilize cross-sections thereof. In various embodiments, images of the cross-sections are captured using a camera based on reflections therefrom or shadows cast thereby.

Classes IPC  ?

  • G01B 11/24 - Dispositions pour la mesure caractérisées par l'utilisation de techniques optiques pour mesurer des contours ou des courbes
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
  • G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
  • G06T 7/507 - Récupération de la profondeur ou de la forme à partir de l'ombrage
  • G06T 7/586 - Récupération de la profondeur ou de la forme à partir de plusieurs images à partir de plusieurs sources de lumière, p.ex. stéréophotométrie
  • G06T 7/593 - Récupération de la profondeur ou de la forme à partir de plusieurs images à partir d’images stéréo
  • G06T 7/292 - Suivi à plusieurs caméras
  • G06K 9/20 - Obtention de l'image
  • G06K 9/32 - Alignement ou centrage du capteur d'image ou de la zone image

84.

SYSTEMS AND METHODS OF INTERACTING WITH A ROBOTIC TOOL USING FREE-FORM GESTURES

      
Numéro d'application 17011993
Statut En instance
Date de dépôt 2020-09-03
Date de la première publication 2020-12-24
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Sills, Maxwell
  • Gordon, Robert S.
  • Durdik, Paul

Abrégé

The technology disclosed relates to motion capture and gesture recognition. In particular, it calculates the exerted force implied by a human hand motion and applies the equivalent through a robotic arm to a target object. In one implementation, this is achieved by tracking the motion and contact of the human hand and generating corresponding robotic commands that replicate the motion and contact of the human hand on a workpiece through a robotic tool.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • B25J 13/08 - Commandes pour manipulateurs au moyens de dispositifs sensibles, p.ex. à la vue ou au toucher
  • B25J 9/16 - Commandes à programme

85.

Predictive information for free space gesture control and communication

      
Numéro d'application 14474077
Numéro de brevet 10846942
Statut Délivré - en vigueur
Date de dépôt 2014-08-29
Date de la première publication 2020-11-24
Date d'octroi 2020-11-24
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Horowitz, Kevin A
  • Holz, David S

Abrégé

Free space machine interface and control can be facilitated by predictive entities useful in interpreting a control object's position and/or motion (including objects having one or more articulating members, i.e., humans and/or animals and/or machines). Predictive entities can be driven using motion information captured using image information or the equivalents. Predictive information can be improved applying techniques for correlating with information from observations.

Classes IPC  ?

  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 17/10 - Description de volumes, p.ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]

86.

Free-space user interface and control using virtual constructs

      
Numéro d'application 16987289
Numéro de brevet 11353962
Statut Délivré - en vigueur
Date de dépôt 2020-08-06
Date de la première publication 2020-11-19
Date d'octroi 2022-06-07
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Bedikian, Raffi
  • Marsden, Jonathan
  • Mertens, Keith
  • Holz, David

Abrégé

During control of a user interface via free-space motions of a hand or other suitable control object, switching between control modes can be facilitated by tracking the control object's movements relative to, and its penetration of, a virtual control construct (such as a virtual surface construct). The position of the virtual control construct can be updated, continuously or from time to time, based on the control object's location.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p.ex. glissement, rotation, agrandissement ou changement de couleur

87.

Resource-responsive motion capture

      
Numéro d'application 16937534
Numéro de brevet 11392211
Statut Délivré - en vigueur
Date de dépôt 2020-07-23
Date de la première publication 2020-11-12
Date d'octroi 2022-07-19
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

The technology disclosed relates to operating a motion-capture system responsive to available computational resources. In particular, it relates to assessing a level of image acquisition and image-analysis resources available using benchmarking of system components. In response, one or more image acquisition parameters and/or image-analysis parameters are adjusted. Acquisition and/or analysis of image data are then made compliant with the adjusted image acquisition parameters and/or image-analysis parameters. In some implementations, image acquisition parameters include frame resolution and frame capture rate and image-analysis parameters include analysis algorithm and analysis density.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateur; Dispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p.ex. dispositions d'interface

88.

Biometric aware object detection and tracking

      
Numéro d'application 16941396
Numéro de brevet 11620859
Statut Délivré - en vigueur
Date de dépôt 2020-07-28
Date de la première publication 2020-11-12
Date d'octroi 2023-04-04
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Sills, Maxwell
  • Smith, Aaron
  • Holz, David S.
  • He, Hongyuan (jimmy)

Abrégé

The technology disclosed can provide methods and systems for identifying users while capturing motion and/or determining the path of a portion of the user with one or more optical, acoustic or vibrational sensors. Implementations can enable use of security aware devices, e.g., automated teller machines (ATMs), cash registers and banking machines, other secure vending or service machines, security screening apparatus, secure terminals, airplanes, automobiles and so forth that comprise sensors and processors employing optical, audio or vibrational detection mechanisms suitable for providing gesture detection, personal identification, user recognition, authorization of control inputs, and other machine control and/or machine communications applications. A virtual experience can be provided to the user in some implementations by the addition of haptic, audio and/or other sensory information projectors.

Classes IPC  ?

  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p.ex. occupants de véhicules automobiles ou piétons; Parties du corps, p.ex. mains

89.

Virtual Interactions for Machine Control

      
Numéro d'application 16941448
Statut En instance
Date de dépôt 2020-07-28
Date de la première publication 2020-11-12
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Bedikian, Raffi
  • Gasinski, Adrian
  • Yang, Hua
  • Hare, Gabriel A.
  • Sills, Maxwell

Abrégé

The technology disclosed relates to providing simplified manipulation of virtual objects by detected hand motions. In particular, it relates to a detecting hand motion and positions of the calculation points relative to a virtual object to be manipulated, dynamically selecting at least one manipulation point proximate to the virtual object based on the detected hand motion and positions of one or more of the calculation points, and manipulating the virtual object by interaction between the detected hand motion and positions of one or more of the calculation points and the dynamically selected manipulation point.

Classes IPC  ?

  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06K 9/46 - Extraction d'éléments ou de caractéristiques de l'image
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06K 9/20 - Obtention de l'image
  • G06F 3/042 - Numériseurs, p.ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
  • G06F 3/02 - Dispositions d'entrée utilisant des interrupteurs actionnés manuellement, p.ex. des claviers ou des cadrans

90.

Enhanced contrast for object detection and characterization by optical imaging based on differences between images

      
Numéro d'application 16916034
Numéro de brevet 11308711
Statut Délivré - en vigueur
Date de dépôt 2020-06-29
Date de la première publication 2020-10-22
Date d'octroi 2022-04-19
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Yang, Hua

Abrégé

Enhanced contrast between an object of interest and background surfaces visible in an image is provided using controlled lighting directed at the object. Exploiting the falloff of light intensity with distance, a light source (or multiple light sources), such as an infrared light source, can be positioned near one or more cameras to shine light onto the object while the camera(s) capture images. The captured images can be analyzed to distinguish object pixels from background pixels.

Classes IPC  ?

  • G06V 10/75 - Appariement de motifs d’image ou de vidéo; Mesures de proximité dans les espaces de caractéristiques utilisant l’analyse de contexte; Sélection des dictionnaires
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p.ex. le suivi des coins ou des segments
  • G06T 7/254 - Analyse du mouvement impliquant de la soustraction d’images
  • H04N 13/254 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques en combinaison avec des sources de rayonnement électromagnétique pour l’éclairage du sujet
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/215 - Découpage basé sur le mouvement
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
  • G06V 10/25 - Détermination d’une région d’intérêt [ROI] ou d’un volume d’intérêt [VOI]
  • G06V 10/40 - Extraction de caractéristiques d’images ou de vidéos
  • G06V 10/141 - Commande d’éclairage
  • G06V 20/64 - Objets tridimensionnels
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p.ex. occupants de véhicules automobiles ou piétons; Parties du corps, p.ex. mains
  • G06T 7/194 - Découpage; Détection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/10 - Découpage; Détection de bords
  • G06T 7/262 - Analyse du mouvement utilisant des procédés de transformation de domaine, p.ex. des procédés de transformée de Fourier
  • G06T 7/33 - Détermination des paramètres de transformation pour l'alignement des images, c. à d. recalage des images utilisant des procédés basés sur les caractéristiques
  • G06T 7/37 - Détermination des paramètres de transformation pour l'alignement des images, c. à d. recalage des images utilisant des procédés de transformation de domaine
  • G06T 7/90 - Détermination de caractéristiques de couleur
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales

91.

Systems and methods for machine control

      
Numéro d'application 16908643
Numéro de brevet 11493998
Statut Délivré - en vigueur
Date de dépôt 2020-06-22
Date de la première publication 2020-10-08
Date d'octroi 2022-11-08
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

A region of space may be monitored for the presence or absence of one or more control objects, and object attributes and changes thereto may be interpreted as control information provided as input to a machine or application. In some embodiments, the region is monitored using a combination of scanning and image-based sensing.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06V 10/145 - Caractéristiques optiques de l’appareil qui effectue l’acquisition ou des dispositifs d’éclairage Éclairage spécialement adapté à la reconnaissance de formes, p.ex. utilisant des réseaux
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p.ex. occupants de véhicules automobiles ou piétons; Parties du corps, p.ex. mains

92.

Systems and methods of rerendering image hands to create a realistic grab experience in virtual reality/augmented reality environments

      
Numéro d'application 16815533
Numéro de brevet 11244513
Statut Délivré - en vigueur
Date de dépôt 2020-03-11
Date de la première publication 2020-10-08
Date d'octroi 2022-02-08
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Marcolina, Alex
  • Holz, David

Abrégé

The technology disclosed relates to a method of realistic rendering of a real object as a virtual object in a virtual space using an offset in the position of the hand in a three-dimensional (3D) sensory space. An offset between expected positions of the eye(s) of a wearer of a head mounted device and a sensor attached to the head mounted device for sensing a position of at least one hand in a three-dimensional (3D) sensory space is determined. A position of the hand in the three-dimensional (3D) sensory space can be sensed using a sensor. The sensed position of the hand can be transformed by the offset into a re-rendered position of the hand as would appear to the wearer of the head mounted device if the wearer were looking at the actual hand. The re-rendered hand can be depicted to the wearer of the head mounted device.

Classes IPC  ?

  • G09G 5/00 - Dispositions ou circuits de commande de l'affichage communs à l'affichage utilisant des tubes à rayons cathodiques et à l'affichage utilisant d'autres moyens de visualisation
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
  • G06T 19/20 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie Édition d'images tridimensionnelles [3D], p.ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/00 - Analyse d'image

93.

User-defined virtual interaction space and manipulation of virtual cameras with vectors

      
Numéro d'application 16805639
Numéro de brevet 11068070
Statut Délivré - en vigueur
Date de dépôt 2020-02-28
Date de la première publication 2020-09-24
Date d'octroi 2021-07-20
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Sills, Maxwell
  • Durdik, Paul

Abrégé

The technology disclosed relates to creating user-defined interaction spaces and modalities in a three dimensional (3D) sensor space in response to control gestures. It also relates to controlling virtual cameras in the 3D sensor space using control gestures and manipulating controls of the virtual cameras through the control gestures. In particular, it relates to defining one or more spatial attributes of the interaction spaces and modalities in response to one or more gesture parameters of the control gesture. It also particularly relates to defining one or more visual parameters of a virtual camera in response to one or more gesture parameters of the control gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport
  • G06T 15/20 - Calcul de perspectives

94.

Dynamic user interactions for display control

      
Numéro d'application 16886746
Numéro de brevet 11181985
Statut Délivré - en vigueur
Date de dépôt 2020-05-28
Date de la première publication 2020-09-17
Date d'octroi 2021-11-23
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

The technology disclosed relates to using gestures to supplant or augment use of a standard input device coupled to a system. It also relates to controlling a display using gestures. It further relates to controlling a system using more than one input device. In particular, it relates to detecting a standard input device that causes on-screen actions on a display in response to control manipulations performed using the standard input device. Further, a library of analogous gestures is identified, which includes gestures that are analogous to the control manipulations and also cause the on-screen actions responsive to the control manipulations. Thus, when a gesture from the library of analogous gestures is detected, a signal is generated that mimics a standard signal from the standard input device and causes at least one on-screen action.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 13/10 - Commande par programme pour dispositifs périphériques
  • G06F 9/4401 - Amorçage
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
  • G06F 16/50 - Recherche d’informations; Structures de bases de données à cet effet; Structures de systèmes de fichiers à cet effet de données d’images fixes
  • G06F 16/53 - Requêtes

95.

Wearable augmented reality devices with object detection and tracking

      
Numéro d'application 16823294
Numéro de brevet 11080937
Statut Délivré - en vigueur
Date de dépôt 2020-03-18
Date de la première publication 2020-09-10
Date d'octroi 2021-08-03
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed can provide capabilities to view and/or interact with the real world to the user of a wearable (or portable) device using a sensor configured to capture motion and/or determining the path of an object based on imaging, acoustic or vibrational waves. Implementations can enable improved user experience, greater safety, greater functionality to users of virtual reality for machine control and/or machine communications applications using wearable (or portable) devices, e.g., head mounted devices (HMDs), wearable goggles, watch computers, smartphones, and so forth, or mobile devices, e.g., autonomous and semi-autonomous robots, factory floor material handling systems, autonomous mass-transit vehicles, automobiles (human or machine driven), and so forth, equipped with suitable sensors and processors employing optical, audio or vibrational detection.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G09G 5/18 - Circuits de synchronisation pour l'affichage à balayage par trame
  • G06F 3/147 - Sortie numérique vers un dispositif de visualisation utilisant des panneaux de visualisation

96.

Systems and methods of interacting with a robotic tool using free-form gestures

      
Numéro d'application 14833016
Numéro de brevet 10768708
Statut Délivré - en vigueur
Date de dépôt 2015-08-21
Date de la première publication 2020-09-08
Date d'octroi 2020-09-08
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Sills, Maxwell
  • Gordon, Robert S.
  • Durdik, Paul

Abrégé

The technology disclosed relates to motion capture and gesture recognition. In particular, it calculates the exerted force implied by a human hand motion and applies the equivalent through a robotic arm to a target object. In one implementation, this is achieved by tracking the motion and contact of the human hand and generating corresponding robotic commands that replicate the motion and contact of the human hand on a workpiece through a robotic tool.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • B25J 13/08 - Commandes pour manipulateurs au moyens de dispositifs sensibles, p.ex. à la vue ou au toucher
  • B25J 9/16 - Commandes à programme

97.

Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments

      
Numéro d'application 16877231
Numéro de brevet 11036304
Statut Délivré - en vigueur
Date de dépôt 2020-05-18
Date de la première publication 2020-09-03
Date d'octroi 2021-06-15
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David Samuel

Abrégé

The technology disclosed relates to user interfaces for controlling augmented reality (AR) or virtual reality (VR) environments. Real and virtual objects can be seamlessly integrated to form an augmented reality by tracking motion of one or more real objects within view of a wearable sensor system. Switching the AR/VR presentation on or off to interact with the real world surrounding them, for example to drink some soda, can be addressed with a convenient mode switching gesture associated with switching between operational modes in a VR/AR enabled device.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

98.

Velocity field interaction for free space gesture interface and control

      
Numéro d'application 16860024
Numéro de brevet 11068071
Statut Délivré - en vigueur
Date de dépôt 2020-04-27
Date de la première publication 2020-08-13
Date d'octroi 2021-07-20
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Holz, David S.
  • Sills, Maxwell

Abrégé

The technology disclosed relates to automatically interpreting a gesture of a control object in a three dimensional sensor space by sensing a movement of the control object in the three dimensional sensor space, sensing orientation of the control object, defining a control plane tangential to a surface of the control object and interpreting the gesture based on whether the movement of the control object is more normal to the control plane or more parallel to the control plane.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06F 3/0485 - Défilement ou défilement panoramique
  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
  • G06F 3/0483 - Interaction avec des environnements structurés en pages, p.ex. métaphore livresque

99.

Determining positional information of an object in space

      
Numéro d'application 16799598
Numéro de brevet 11693115
Statut Délivré - en vigueur
Date de dépôt 2020-02-24
Date de la première publication 2020-08-06
Date d'octroi 2023-07-04
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

The technology disclosed relates to determining positional information of an object in a field of view. In particular, it relates to measuring, using a light sensitive sensor, one or more differences in an intensity of returning light that is (i) emitted from respective directionally oriented non-coplanar light sources of a plurality of directionally oriented light sources that have at least some overlapping fields of illumination and (ii) reflected from the target object as the target object moves through a region of space monitored by the light sensitive sensor, and recognizing signals in response to (i) positional information of the target object determined based on, a first position in space at a first time t0 and a second position in space at a second time t1 sensed using the measured one or more differences in the intensity of the returning light and (ii) a non-coplanar movement of the target object.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G01S 17/36 - Systèmes déterminant les données relatives à la position d'une cible pour mesurer la distance uniquement utilisant la transmission d'ondes continues, soit modulées en amplitude, en fréquence ou en phase, soit non modulées avec comparaison en phase entre le signal reçu et le signal transmis au même moment
  • G01S 17/42 - Mesure simultanée de la distance et d'autres coordonnées
  • G01S 17/00 - Systèmes utilisant la réflexion ou la reradiation d'ondes électromagnétiques autres que les ondes radio, p.ex. systèmes lidar
  • G01S 17/48 - Systèmes de triangulation active, c. à d. utilisant la transmission et la réflexion d'ondes électromagnétiques autres que les ondes radio
  • G01S 17/89 - Systèmes lidar, spécialement adaptés pour des applications spécifiques pour la cartographie ou l'imagerie
  • G01S 7/481 - Caractéristiques de structure, p.ex. agencements d'éléments optiques
  • G01S 17/04 - Systèmes de détermination de la présence d'une cible
  • G01S 7/483 - DÉTERMINATION DE LA DIRECTION PAR RADIO; RADIO-NAVIGATION; DÉTERMINATION DE LA DISTANCE OU DE LA VITESSE EN UTILISANT DES ONDES RADIO; LOCALISATION OU DÉTECTION DE LA PRÉSENCE EN UTILISANT LA RÉFLEXION OU LA RERADIATION D'ONDES RADIO; DISPOSITIONS ANALOGUES UTILISANT D'AUTRES ONDES - Détails des systèmes correspondant aux groupes , , de systèmes selon le groupe - Détails de systèmes à impulsions

100.

Adjusting motion capture based on the distance between tracked objects

      
Numéro d'application 16857104
Numéro de brevet 10999494
Statut Délivré - en vigueur
Date de dépôt 2020-04-23
Date de la première publication 2020-08-06
Date d'octroi 2021-05-04
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed relates to adjusting the monitored field of view of a camera and/or a view of a virtual scene from a point of view of a virtual camera based on the distance between tracked objects. For example, if the user's hand is being tracked for gestures, the closer the hand gets to another object, the tighter the frame can become—i.e., the more the camera can zoom in so that the hand and the other object occupy most of the frame. The camera can also be reoriented so that the hand and the other object remain in the center of the field of view. The distance between two objects in a camera's field of view can be determined and a parameter of a motion-capture system adjusted based thereon. In particular, the pan and/or zoom levels of the camera may be adjusted in accordance with the distance.

Classes IPC  ?

  • H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
  • G06T 7/50 - Récupération de la profondeur ou de la forme
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  1     2     3        Prochaine page