Google LLC

États‑Unis d’Amérique

Retour au propriétaire

1-100 de 6 014 pour Google LLC Trier par
Recheche Texte
Brevet
International - WIPO
Affiner par Reset Report
Date
Nouveautés (dernières 4 semaines) 151
2024 avril (MACJ) 114
2024 mars 85
2024 février 83
2024 janvier 77
Voir plus
Classe IPC
G06F 17/30 - Recherche documentaire; Structures de bases de données à cet effet 366
G06N 3/04 - Architecture, p.ex. topologie d'interconnexion 340
G06N 3/08 - Méthodes d'apprentissage 298
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur 274
G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p.ex. dialogue homme-machine  216
Voir plus
Résultats pour  brevets
  1     2     3     ...     61        Prochaine page

1.

BIOLOGICAL TISSUE DETECTION USING DIFFERENTIAL BEAMFORMING IN MOBILE COMMUNICATION SYSTEMS

      
Numéro d'application US2022078535
Numéro de publication 2024/085906
Statut Délivré - en vigueur
Date de dépôt 2022-10-21
Date de publication 2024-04-25
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Ghajar, Mohammad Reza
  • Stauffer, Erik
  • Wang, Jibing

Abrégé

A method comprising transmitting, via a first antenna array of a mobile communication device, a plurality of transmit beams, and receiving, via a second antenna array of the mobile communication device, a plurality of receive beams. Each beam pair of a plurality of beam pairs includes a respective transmit beam of the plurality of transmit beams and a respective receive beam of the plurality of receive beams. Then determining, based on a comparison between beam pairs of the plurality of beam pairs, whether an object is proximate to the mobile communication device. Then responsive to determining that the object is proximate to the mobile communication device, determining one or more transmission parameters. Then transmitting, with the one or more transmission parameters, a signal.

Classes IPC  ?

  • H04B 7/06 - Systèmes de diversité; Systèmes à plusieurs antennes, c. à d. émission ou réception utilisant plusieurs antennes utilisant plusieurs antennes indépendantes espacées à la station d'émission
  • H04B 7/08 - Systèmes de diversité; Systèmes à plusieurs antennes, c. à d. émission ou réception utilisant plusieurs antennes utilisant plusieurs antennes indépendantes espacées à la station de réception
  • H04W 16/28 - Structures des cellules utilisant l'orientation du faisceau

2.

PROCESSING CONTINUED CONVERSATIONS OVER MULTIPLE DEVICES

      
Numéro d'application US2023035234
Numéro de publication 2024/086112
Statut Délivré - en vigueur
Date de dépôt 2023-10-16
Date de publication 2024-04-25
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Carbune, Victor
  • Sharifi, Matthew

Abrégé

Implementations relate to facilitating continued conversations of a user with an automated assistant when the user changes locations relative to device(s) in an ecosystem of linked assistant devices. The user initially invokes a first device and provides a request, which is processed by the first device. The first device provides a notification to other device(s) in the ecosystem to indicate that the user is likely to issue a further assistant request. The first device processes subsequent audio data to determine whether the subsequent audio data includes a further assistant request. The other notified device(s) process device-specific sensor data to determine whether the user is co-present with the one of the other devices. If so, an indication is provided to the first device, causing the first device to cease processing subsequent audio data. Further, the co-present device starts to process subsequent audio data.

Classes IPC  ?

  • G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p.ex. dialogue homme-machine 
  • G06F 3/16 - Entrée acoustique; Sortie acoustique
  • G10L 17/00 - Identification ou vérification du locuteur

3.

SOLVING QUADRATIC OPTIMIZATION PROBLEMS OVER ORTHOGONAL GROUPS USING A QUANTUM COMPUTER

      
Numéro d'application US2023035499
Numéro de publication 2024/086274
Statut Délivré - en vigueur
Date de dépôt 2023-10-19
Date de publication 2024-04-25
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Rubin, Nicholas Charles
  • Zhao, Andrew

Abrégé

Methods, systems, and apparatus for solving quadratic optimization problems over orthogonal groups using quantum computing. In one aspect, a method includes receiving data representing a quadratic optimization problem, wherein decision variables of the quadratic optimization problem take values in an orthogonal group or a special orthogonal group; encoding the quadratic optimization problem as a quantum Hamiltonian, the encoding comprising using a Clifford algebra representation of the group to map orthogonal matrices or special orthogonal matrices in the group to respective quantum states in a Hilbert space; determining an approximate eigenstate of the quantum Hamiltonian; computing expectation values of Pauli operators with respect to the approximate eigenstate, wherein the Pauli operators comprise operators obtained by mapping multiplication operations of the Clifford algebra into the Hilbert space; and rounding the expectation values of the Pauli operators to elements of the orthogonal group to obtain a solution to the quadratic optimization problem.

Classes IPC  ?

  • G06N 5/01 - Techniques de recherche dynamique; Heuristiques; Arbres dynamiques; Séparation et évaluation
  • G06N 10/60 - Algorithmes quantiques, p.ex. fondés sur l'optimisation quantique ou les transformées quantiques de Fourier ou de Hadamard

4.

DYNAMICALLY ADJUSTING INSTRUCTIONS IN AN AUGMENTED-REALITY EXPERIENCE

      
Numéro d'application US2023031343
Numéro de publication 2024/085951
Statut Délivré - en vigueur
Date de dépôt 2023-08-29
Date de publication 2024-04-25
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Lee, Jessica
  • Oleson, David Trotter
  • Grimsmo, Nils
  • Roth, Fabian

Abrégé

Systems and methods for augmented-reality tutoring can utilize optical character recognition, natural language processing, and/or augmented-reality rendering for providing real-time notifications for completing a determined task. The systems and methods can include utilizing one or more machine-learned models trained for quantitative reasoning and can include providing a plurality of different user interface elements at different times.

Classes IPC  ?

  • G09B 3/02 - Matériel d'enseignement à commande manuelle ou mécanique procédant par questions et réponses du type où l'élève doit donner une réponse à la question posée, ou bien où la machine donne une réponse à la question posée par un élève
  • G06F 40/30 - Analyse sémantique
  • G06V 20/20 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06V 30/10 - Reconnaissance de caractères
  • G06V 30/40 - Reconnaissance des formes à partir d’images axée sur les documents
  • G09B 3/10 - Matériel d'enseignement à commande manuelle ou mécanique procédant par questions et réponses du type à choix entre réponses multiples, c. à d. où pour une question donnée est fournie une série de réponses et où un choix doit être fait où un seul groupe de réponses est commun à plusieurs questions
  • G09B 5/06 - Matériel à but éducatif à commande électrique avec présentation à la fois visuelle et sonore du sujet à étudier
  • G09B 7/04 - Dispositifs ou appareils d'enseignement à commande électrique procédant par questions et réponses du type où l'élève doit donner une réponse à la question posée, ou bien où la machine donne une réponse à la question posée par l'élève caractérisés par une modification du programme d'enseignement à la suite d'une réponse erronée, p.ex. en répétant la question, en fournissant des explications supplémentaires
  • G09B 7/08 - Dispositifs ou appareils d'enseignement à commande électrique procédant par questions et réponses du type à choix entre réponses multiples, c. à d. où pour une question donnée est fournie une série de réponses entre lesquelles un choix doit être fait caractérisés par une modification du programme d'enseignement à la suite d'une réponse erronée, p.ex. en répétant la question, en fournissant une information supplémentaire
  • G09B 19/02 - Calcul; Arithmétique
  • G06N 20/00 - Apprentissage automatique
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur

5.

GAZE TRACKING FOR AUGMENTED REALITY DEVICES

      
Numéro d'application US2022078436
Numéro de publication 2024/085905
Statut Délivré - en vigueur
Date de dépôt 2022-10-20
Date de publication 2024-04-25
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Fanello, Sean Ryan Francesco
  • Tosic, Ivana
  • Spencer, Jason Todd
  • Pandey, Rohit Kumar
  • Aboussouan, Eric
  • Wu, Yitian
  • Jaberi, Maryam
  • Ghabussi, Amirpasha
  • Kowdle, Adarsh Prakash Murthy

Abrégé

A method including generating a batch of calibration images including a ground-truth image, and an image captured by a backward facing camera of a head mounted AR device, predicting a first gaze direction based on the ground-truth image, training a neural network based on the predicted first gaze direction and the ground-truth image, predicting a second gaze direction based on the image and an indication displayed on a display of the head mounted AR device when the image was captured, and training the neural network based on the predicted second gaze direction and a position on the display of the head mounted AR device associated with the indication.

Classes IPC  ?

  • G06V 10/82 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant les réseaux neuronaux
  • G06V 40/18 - Caractéristiques de l’œil, p.ex. de l’iris
  • G06V 40/19 - Capteurs à cet effet

6.

NON-WINDOWED DCT-BASED AUDIO CODING USING ADVANCED QUANTIZATION

      
Numéro d'application US2022078414
Numéro de publication 2024/085903
Statut Délivré - en vigueur
Date de dépôt 2022-10-20
Date de publication 2024-04-25
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Alakuijala, Jyrki Antero
  • Firsching, Moritz
  • Boukortt, Sami
  • Bruse, Martin
  • Kliuchnikov, Evgenii
  • Fischbacher, Thomas

Abrégé

A method including receiving a time-domain audio signal, generating a blocked time-domain audio signal as a portion of the time-domain audio signal, transforming the blocked time-domain audio signal using a first non-windowed transform function to generate a first frequency-domain audio signal, transforming the first frequency-domain audio signal using a second non-windowed transform function to generate a second frequency-domain audio signal, and compressing the second frequency-domain audio signal to generate a compressed frequency-domain audio signal.

Classes IPC  ?

  • G10L 19/02 - Techniques d'analyse ou de synthèse de la parole ou des signaux audio pour la réduction de la redondance, p.ex. dans les vocodeurs; Codage ou décodage de la parole ou des signaux audio utilisant les modèles source-filtre ou l’analyse psychoacoustique utilisant l'analyse spectrale, p.ex. vocodeurs à transformée ou vocodeurs à sous-bandes
  • G10L 19/022 - Constitution de blocs, c. à d. regroupement d’échantillons temporels; Choix des fenêtres d’analyse; Facteur de recouvrement
  • G10L 19/032 - Quantification ou dé-quantification de composantes spectrales

7.

UPLINK ADAPTIVE FLOW CONTROL WITH PADDING MITIGATION

      
Numéro d'application US2022046829
Numéro de publication 2024/085854
Statut Délivré - en vigueur
Date de dépôt 2022-10-17
Date de publication 2024-04-25
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Liao, Weichih
  • Ou, Todd
  • Wang, Yu

Abrégé

A first wireless device (102) employs an uplink (UL) pre-transmission process (122) to temporarily buffer data for processing prior to transmission of the resulting processed data to a second wireless device (110). To mitigate excessive delay of higher-priority data, higher-priority data is enqueued into the UL pre-transmission process (122) without restriction (subject to capacity limitations), while lower-priority data is selectively enqueued into the UL pre-transmission process (122) based on one or more criteria applied to a current volume of data in the input queue. Further, the first wireless device (102) monitors the current transmission efficiency based on, for example, the current usage of transmission padding, and operates to dynamically adjust one or more of the criteria based on the monitored current transmission efficiency.

Classes IPC  ?

  • H04L 47/12 - Prévention de la congestion; Récupération de la congestion
  • H04L 47/24 - Trafic caractérisé par des attributs spécifiques, p.ex. la priorité ou QoS
  • H04L 47/52 - Ordonnancement selon la bande passante des files d'attente
  • H04L 49/90 - Dispositions de mémoires tampon

8.

KNOWLEDGE DISTILLATION WITH DOMAIN MISMATCH FOR SPEECH RECOGNITION

      
Numéro d'application US2023035318
Numéro de publication 2024/086164
Statut Délivré - en vigueur
Date de dépôt 2023-10-17
Date de publication 2024-04-25
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Yang, Tien-Ju
  • Cheng, You-Chi
  • Kumar, Shankar
  • Lichtarge, Jared
  • Amid, Ehsan
  • Ding, Yuxin
  • Mathews, Rajiv
  • Chen, Mingqing

Abrégé

A method (300) includes receiving distillation data (220) including a plurality of out-of-domain training utterances (222). For each particular out-of-domain training utterance of the distillation data, the method includes generating a corresponding augmented out-of-domain training utterance (232), and generating, using a teacher ASR model (170) trained on training data corresponding to a target domain, a pseudo-label (240) corresponding to the corresponding augmented out-of-domain training utterance. The method also includes distilling a student ASR model (210) from the teacher ASR model by training the student ASR model using the corresponding augmented out-of-domain training utterances paired with the corresponding pseudo-labels generated by the teacher ASR model.

Classes IPC  ?

  • G10L 15/06 - Création de gabarits de référence; Entraînement des systèmes de reconnaissance de la parole, p.ex. adaptation aux caractéristiques de la voix du locuteur

9.

CONVERSATIONAL INTERFACE FOR CONTENT CREATION AND EDITING USING LARGE LANGUAGE MODELS

      
Numéro d'application US2023035397
Numéro de publication 2024/086216
Statut Délivré - en vigueur
Date de dépôt 2023-10-18
Date de publication 2024-04-25
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Bent, Iii, Sylvanus Garnet
  • Koc, Mehmet Levent
  • Luo, Wei
  • Zhou, Xiaolan

Abrégé

Example embodiments of the present disclosure provide for an example method that includes obtaining via a conversational campaign assistant interface, by a custom language model, natural language input. The method includes generating, by the custom language model, an output comprising a predicted user intent. The method includes determining actions to perform and determining a natural language response. The method includes transmitting, to an action component, the action data structure comprising executable instructions that cause the action component to automatically perform operations associated with completing the action. The method includes transmitting to the conversation campaign assistant interface, the response data structure comprising the natural language response to be provided for display to a user via the conversational campaign assistant interface. The method includes obtaining user input indicative of a validation of the action data structure or the response data structure and updating the custom language model based on the user input.

Classes IPC  ?

10.

ONLINE CALIBRATION OF SMARTGLASSES FRAME DEFORMATION

      
Numéro d'application US2022078197
Numéro de publication 2024/085895
Statut Délivré - en vigueur
Date de dépôt 2022-10-17
Date de publication 2024-04-25
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Jia, Zhiheng
  • Hernandez, Joshua Anthony
  • Guo, Chao
  • Zhang, Qiyue

Abrégé

Techniques of maintaining user comfort while using augmented reality smartglasses include performing an online calibration of frame deformation to correct display position in the lens. Such a calibration involves modeling the frame portion between the world-facing camera and the eye-tracking camera as a hinge that rotates about an axis on and normal to the frame portion. That is, the frame portion consists of two line segments that are joined at an axis at an unknown rotation (angle) to be determined. In this treatment, any translation induced will be neglected.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure

11.

IMMERSIVE TELECONFERENCING WITHIN SHARED SCENE ENVIRONMENTS

      
Numéro d'application US2023077284
Numéro de publication 2024/086704
Statut Délivré - en vigueur
Date de dépôt 2023-10-19
Date de publication 2024-04-25
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Hulaud, Stéphane Hervé Loïc

Abrégé

Methods, systems, and apparatus are described for immersive videoconferencing teleconferencing streams from multiple endpoints within shared scene environment. The method includes receiving a plurality of streams for presentation at a teleconference, wherein each of the plurality of streams represents a participant of a respective plurality of participants of the teleconference. The method includes, determining scene data descriptive of a scene environment, the scene data comprising at least one of lighting characteristics, acoustic characteristics, or perspective characteristics of the scene environment. The method includes, for each of the plurality of participants of the teleconference, determining a position of the participant within the scene environment and, based at least in part on the scene data and the position of the participant within the scene environment, modifying the stream that represents the participant.

Classes IPC  ?

12.

UNCERTAINTY-AWARE INFERENCE OF 3D SHAPES FROM 2D IMAGES

      
Numéro d'application US2023035603
Numéro de publication 2024/086333
Statut Délivré - en vigueur
Date de dépôt 2023-10-20
Date de publication 2024-04-25
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Lee, Benjamin Sang
  • Hoffman, Matthew, Douglas
  • Lee, Tuan Anh
  • Sountsov, Pavel
  • Rifkin, Ryan, Michael
  • Suter, Christopher, Gordon

Abrégé

Provided are computing systems, methods, and platforms that infer an object shape from an image using a neural radiance field (NeRF) model. A NeRF model can infer a 3D shape from a 2D image by performing a plurality of iterations to generate a plurality of sample 2D images of a 3D scene. For each iteration, an object code can be sampled from a posterior distribution of learned priors on NeRF models associated with the 3D scene, the object code can be processed with a hypernetwork to generate a set of NeRF weights from the object code, and a NeRF model with the set of NeRF weights predicted by the hypernetwork can generate a sample 2D image of the 3D scene. The sample 2D images generated during the iterations can be provided as an output.

Classes IPC  ?

  • G06N 3/0455 - Réseaux auto-encodeurs; Réseaux encodeurs-décodeurs
  • G06N 3/047 - Réseaux probabilistes ou stochastiques
  • G06N 3/084 - Rétropropagation, p.ex. suivant l’algorithme du gradient
  • G06N 3/088 - Apprentissage non supervisé, p.ex. apprentissage compétitif

13.

PRIVACY SENSITIVE ESTIMATION OF DIGITAL RESOURCE ACCESS FREQUENCY

      
Numéro d'application US2023035471
Numéro de publication 2024/086256
Statut Délivré - en vigueur
Date de dépôt 2023-10-19
Date de publication 2024-04-25
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Manurangsi, Pasin
  • Ravikumar, Shanmugasundaram
  • Kamath, Pritish
  • Ghazi, Badih
  • Wu, Kewen

Abrégé

Methods, systems, and apparatus, including computer programs encoded on a computer storage medium, for generating an estimate for a number of users that accessed a digital resource within a time window. In one aspect, a method comprises: obtaining access data for a digital resource; generating a tree model based on the access data; selecting, for each node in the tree model, a respective private access value for the node that: (i) is an approximation of an access value for the node, and (ii) is selected from a finite set of possible private access values; and generating an estimate for the number of users that accessed the digital resource at least the predefined number of times within the time window based on private access values associated with one or more nodes in the tree model.

Classes IPC  ?

  • G06F 21/62 - Protection de l’accès à des données via une plate-forme, p.ex. par clés ou règles de contrôle de l’accès
  • H04L 9/40 - Protocoles réseaux de sécurité
  • H04W 12/08 - Sécurité d'accès
  • G06F 16/22 - Indexation; Structures de données à cet effet; Structures de stockage

14.

CONTEXT-AWARE END-TO-END ASR FUSION OF CONTEXT, ACOUSTIC AND TEXT REPRESENTATIONS

      
Numéro d'application US2023035486
Numéro de publication 2024/086265
Statut Délivré - en vigueur
Date de dépôt 2023-10-19
Date de publication 2024-04-25
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Chang, Shuo-Yiin

Abrégé

A method (400) includes receiving a sequence of acoustic frames (110) characterizing an input utterance and generating a higher order feature representation (212) for a corresponding acoustic frame by an audio encoder (210) of an automatic speech recognition (ASR) model (200). The method also includes generating a context embedding (305) corresponding to one or more previous transcriptions (120P) output by the ASR model by a context encoder (300) of the ASR model and generating, by a prediction network (230) of the ASR model, a dense representation (232) based on a sequence of non-blank symbols (121) output by a final Softmax layer (250). The method also includes generating, by a joint network (24) of the ASR model, a probability distribution (242) over possible speech recognition hypotheses based on the context embeddings, the higher order feature representation, and the dense representation.

Classes IPC  ?

  • G10L 15/16 - Classement ou recherche de la parole utilisant des réseaux neuronaux artificiels

15.

SYSTEMS AND METHODS FOR ESTIMATING A BIAS OF AN INERTIAL MEASUREMENT UNIT

      
Numéro d'application US2022078415
Numéro de publication 2024/085904
Statut Délivré - en vigueur
Date de dépôt 2022-10-20
Date de publication 2024-04-25
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Zhang, Qiyue
  • Guo, Chao
  • Jia, Zhiheng
  • Wu, Hao

Abrégé

Motion tracking accuracy is an important feature to an immersive augmented or virtual reality experience. Motion tracking may be computed based on data from an inertial measurement unit of a device. This data may include errors that can vary with temperature. The disclosure describes a calibration process to reduce or eliminate these errors. The calibration process does not require special equipment and can be performed while the device is in use (i.e., online).

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G01C 25/00 - Fabrication, étalonnage, nettoyage ou réparation des instruments ou des dispositifs mentionnés dans les autres groupes de la présente sous-classe
  • G02B 27/01 - Dispositifs d'affichage "tête haute"

16.

MITIGATING LATENCY IN SPOKEN INPUT GUIDED SELECTION OF ITEM(S)

      
Numéro d'application US2023034926
Numéro de publication 2024/086048
Statut Délivré - en vigueur
Date de dépôt 2023-10-11
Date de publication 2024-04-25
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Otto, Adrian
  • Byrne, William
  • Ram, Ashwin

Abrégé

de minimisde minimis) audible spoken synthesized spoken output rendered by the computing system in guiding the user in selecting the subset of item(s).

Classes IPC  ?

  • G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p.ex. dialogue homme-machine 
  • G10L 15/18 - Classement ou recherche de la parole utilisant une modélisation du langage naturel
  • G06F 3/16 - Entrée acoustique; Sortie acoustique

17.

TEXT-DRIVEN IMAGE EDITING VIA IMAGE-SPECIFIC FINETUNING OF DIFFUSION MODELS

      
Numéro d'application US2023077117
Numéro de publication 2024/086598
Statut Délivré - en vigueur
Date de dépôt 2023-10-17
Date de publication 2024-04-25
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Leviathan, Yaniv
  • Walevski, Daniel
  • Kalman, Matan
  • Matias, Yossi

Abrégé

Provided are systems and methods for general text-driven image editing, example implementations of which may be referred to as "UniTune". UniTune can receive as input an arbitrary image and a textual edit description, and can carry out the edit while maintaining high semantic and visual fidelity to the input image. UniTune does not require any additional inputs, like masks or sketches. According to an aspect of the present disclosure, with the right choice of parameters, example systems described herein can fine-tune a large diffusion model (e.g., Imagen) on a single image, encouraging the model to maintain fidelity to the input image, both visually and semantically, while still allowing expressive manipulations.

Classes IPC  ?

  • G06T 11/60 - Edition de figures et de texte; Combinaison de figures ou de texte

18.

REFLECTIVE FACET WAVEGUIDE WITH LAMINATED FACET LAYERS

      
Numéro d'application US2023076547
Numéro de publication 2024/081699
Statut Délivré - en vigueur
Date de dépôt 2023-10-11
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Adema, Daniel
  • Bodiya, Timothy Paul

Abrégé

A waveguide includes a plurality of reflective facet sets. Each reflective facet set of the plurality of reflective facet sets includes a first reflective facet to reflect light having a first optical characteristic and a second reflective facet to reflect light having a second optical characteristic that is different from the first optical characteristic. A first reflective facet in a first reflective facet set of the plurality of reflective facet sets overlaps a first reflective facet of a second set of the plurality of reflective facet sets.

Classes IPC  ?

  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G02B 27/01 - Dispositifs d'affichage "tête haute"

19.

DUAL BAND WIRELESS COMMUNICATIONS FOR MULTIPLE CONCURRENT AUDIO STREAMS

      
Numéro d'application US2023076645
Numéro de publication 2024/081757
Statut Délivré - en vigueur
Date de dépôt 2023-10-12
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Barros, Daniel

Abrégé

Various arrangements for performing wireless device-to-device communication are presented. An audio output device, such as an earbud or pair of earbuds, can establish a connection with an audio source via a first Bluetooth interface that communicates using a Bluetooth communication protocol on a 2.4 GHz Bluetooth frequency band. The audio output device can negotiate that Bluetooth frequency-shifted communication, such as on a 5 or 6 GHz frequency band, is available for use with the audio source. The audio output device may then perform Bluetooth frequency-shifted communication with the audio source such that the audio output device receives an audio stream from the audio source using Bluetooth frequency-shifted communication and the Bluetooth communication protocol.

Classes IPC  ?

  • H04W 4/80 - Services utilisant la communication de courte portée, p.ex. la communication en champ proche, l'identification par radiofréquence ou la communication à faible consommation d’énergie
  • H04L 69/14 - Protocoles multicanaux ou multi-liaisons
  • H04R 1/10 - Ecouteurs; Leurs fixations

20.

DETERMINING TRANSMISSION CONFIGURATION INDICATOR (TCI) STATE LISTS FOR MULTIPLE TRANSMISSION RECEPTION POINTS (MTRP)

      
Numéro d'application CN2022124409
Numéro de publication 2024/077447
Statut Délivré - en vigueur
Date de dépôt 2022-10-10
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Liou, Jia-Hong
  • Wu, Chih-Hsiang

Abrégé

A UE (102) receives (305), from a network entity (106a), a configuration for a TCI state list for a first serving cell that corresponds to a reference cell. The UE (102) further receives (309), from the network entity (106a), a first parameter and a second parameter that define an other TCI state list for a second serving cell. The first parameter indicates a type of the other TCI state list for the second serving cell and the second parameter indicates at least one of: a serving cell index for the first serving cell or one or more TCI state IDs in the TCI state list. The UE (102) communicates (377) with the network entity (106a) using the other TCI state list for the second serving cell. The other TCI state list is based on the second parameter and the TCI state list for the first serving cell.

Classes IPC  ?

  • H04L 5/00 - Dispositions destinées à permettre l'usage multiple de la voie de transmission

21.

LEARNED TRANSFORMS FOR CODING

      
Numéro d'application US2022053021
Numéro de publication 2024/081009
Statut Délivré - en vigueur
Date de dépôt 2022-12-15
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Duong, Lyndon
  • Chen, Cheng
  • Li, Bohan
  • Han, Jingning

Abrégé

Decoding a current block includes receiving a compressed bitstream. A transform block of transform coefficients is decoded from the compressed bitstream. The transform coefficients are in a transform domain. The transform block is input to a machine-learning model to obtain a residual block that is in a pixel domain. The residual block is used to reconstruct the current block. Encoding a current block includes receiving a current residual block. The current residual block and a specified rate-distortion parameter are input to a machine-learning model to obtain a quantized transform block. The quantized transform block is entropy encoded into a compressed bitstream.

Classes IPC  ?

  • H04N 19/107 - Sélection du mode de codage ou du mode de prédiction entre codage prédictif spatial et temporel, p.ex. rafraîchissement d’image
  • H04N 19/147 - Débit ou quantité de données codées à la sortie du codeur selon des critères de débit-distorsion
  • H04N 19/176 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant une zone de l'image, p.ex. un objet la zone étant un bloc, p.ex. un macrobloc
  • H04N 19/18 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant un ensemble de coefficients de transformée
  • H04N 19/91 - Codage entropique, p.ex. codage à longueur variable ou codage arithmétique

22.

REGION-BASED CROSS-COMPONENT PREDICTION

      
Numéro d'application US2022053141
Numéro de publication 2024/081010
Statut Délivré - en vigueur
Date de dépôt 2022-12-16
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Li, Xiang
  • Han, Jingning
  • Xu, Yaowu
  • Mukherjee, Debargha

Abrégé

Region-based cross-component prediction improves convolutional cross-component mode (CCCM) prediction by enabling filter coefficients for predicting chroma samples from luma samples to be derived for an entire region of a frame of a video stream, such as a coding tree unit (CTU), rather than requiring that such filter coefficients be derived for each individual coding unit (CU). Deriving the filter coefficients for an entire region instead of for each individual CU under processing significantly reduces the latency in video coding and thus enables CCCM prediction to be used in hardware coder implementations.

Classes IPC  ?

  • H04N 19/105 - Sélection de l’unité de référence pour la prédiction dans un mode de codage ou de prédiction choisi, p.ex. choix adaptatif de la position et du nombre de pixels utilisés pour la prédiction
  • H04N 19/157 - Mode de codage attribué, c. à d. le mode de codage étant prédéfini ou présélectionné pour être utilisé ultérieurement afin de sélectionner un autre élément ou paramètre
  • H04N 19/176 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant une zone de l'image, p.ex. un objet la zone étant un bloc, p.ex. un macrobloc
  • H04N 19/186 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant une couleur ou une composante de chrominance
  • H04N 19/593 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif mettant en œuvre des techniques de prédiction spatiale
  • H04N 19/70 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques caractérisés par des aspects de syntaxe liés au codage vidéo, p.ex. liés aux standards de compression

23.

FILTER COEFFICIENT DERIVATION SIMPLIFICATION FOR CROSS-COMPONENT PREDICTION

      
Numéro d'application US2022053149
Numéro de publication 2024/081011
Statut Délivré - en vigueur
Date de dépôt 2022-12-16
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Li, Xiang
  • Han, Jingning
  • Xu, Yaowu
  • Mukherjee, Debargha

Abrégé

Filter coefficient derivation simplification for cross-component prediction reduces latencies typically introduced by convolutional cross-component model (CCCM) prediction and thus enables use of CCCM prediction by hardware coders. Various approaches for filter coefficient derivation simplification are disclosed, including limiting a dynamic range of filter coefficient derivation to a defined bit range, limiting filter coefficient derivation and thus use of CCCM prediction based on coding unit size, and/or enabling filter coefficient derivation directly from non-downsampled luma samples.

Classes IPC  ?

  • H04N 19/105 - Sélection de l’unité de référence pour la prédiction dans un mode de codage ou de prédiction choisi, p.ex. choix adaptatif de la position et du nombre de pixels utilisés pour la prédiction
  • H04N 19/157 - Mode de codage attribué, c. à d. le mode de codage étant prédéfini ou présélectionné pour être utilisé ultérieurement afin de sélectionner un autre élément ou paramètre
  • H04N 19/176 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant une zone de l'image, p.ex. un objet la zone étant un bloc, p.ex. un macrobloc
  • H04N 19/186 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant une couleur ou une composante de chrominance
  • H04N 19/593 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif mettant en œuvre des techniques de prédiction spatiale
  • H04N 19/70 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques caractérisés par des aspects de syntaxe liés au codage vidéo, p.ex. liés aux standards de compression

24.

DETECTING ADVERSE HAPTIC ENVIRONMENTS

      
Numéro d'application US2022077861
Numéro de publication 2024/081016
Statut Délivré - en vigueur
Date de dépôt 2022-10-10
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Quinn, Philip

Abrégé

A computing device may drive a haptic device of the computing device to output a precursor haptic signal. The computing device may determine a motion signal associated with outputting the precursor haptic signal, lire computing device may determine, based at least in part on the motion signal associated with outputting the precursor haptic signal, that the computing device is in an adverse haptic environment. The computing device may, in response to determining that the computing device is in an adverse haptic environment, drive, by the one or more processors, the haptic device to output an alternative haptic signal instead of the haptic signal.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/041 - Numériseurs, p.ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction

25.

TRANSLATION AND SCALING EQUIVARIANT SLOT ATTENTION

      
Numéro d'application US2022079903
Numéro de publication 2024/081032
Statut Délivré - en vigueur
Date de dépôt 2022-11-15
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Mahendran, Aravindh
  • Biza, Ondrej
  • Kipf, Thomas
  • Van Steenkiste, Simon, Jacob
  • Elsayed, Gamaleldin
  • Mehdi, Seyed, Mohammad

Abrégé

A method includes receiving feature vectors and, for each respective feature vector, a corresponding absolute positional encoding. The method also includes determining latent representations of entities represented by the feature vectors, and determining, for each respective latent representation, a corresponding relative positional encoding based on the corresponding absolute positional encoding of each feature vector and a corresponding position vector associated with the respective latent representation. The method additionally includes determining an attention matrix based on the feature vectors, the entity-centric latent representations, and the corresponding relative positional encoding of each latent representation. The method further includes updating, for each respective latent representation, the corresponding position vector based on a weighted mean of the corresponding absolute positional encoding of each feature vector weighted according to corresponding entries of the attention matrix, and outputting the latent representations and/or the position vectors associated therewith.

Classes IPC  ?

  • G06N 3/0442 - Réseaux récurrents, p.ex. réseaux de Hopfield caractérisés par la présence de mémoire ou de portes, p.ex. mémoire longue à court terme [LSTM] ou unités récurrentes à porte [GRU]
  • G06N 3/0455 - Réseaux auto-encodeurs; Réseaux encodeurs-décodeurs
  • G06N 3/08 - Méthodes d'apprentissage

26.

MATRIX PRODUCT STATE-BASED DECODERS FOR STABILIZER CODES UNDER DEVICE NOISE FOR QUANTUM COMPUTING AND INFORMATION PROCESSING

      
Numéro d'application US2023027673
Numéro de publication 2024/081051
Statut Délivré - en vigueur
Date de dépôt 2023-07-13
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Villalonga Correa, Benjamin
  • Newman, Michael Gabriel
  • Boixo Castrillo, Sergio

Abrégé

An enhanced matrix product state-based decoder is generated and employed to almost optimally detect and correct errors within a quantum computing and information processing system. The decoder takes as input a detector level error model that describes physical error channels and a set of error detections. This error model is improved using experimental data.

27.

AUTOMATED ASSISTANT THAT UTILIZES RADAR DATA TO DETERMINE USER PRESENCE AND VIRTUALLY SEGMENT AN ENVIRONMENT

      
Numéro d'application US2023034382
Numéro de publication 2024/081131
Statut Délivré - en vigueur
Date de dépôt 2023-10-03
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Khanna, Varn
  • Trehan, Chintan

Abrégé

Implementations relate to an automated assistant that can determine whether to respond to inputs in an environment according to whether radar data indicates a user is present. When user presence is detected, the automated assistant can virtually segment the environment and apply certain operational parameters to certain segments of the environment. For instance, the automated assistant can enable an input detection feature, such as warm word detection, for a segmented portion of the environment in which a user is detected. In this way, false positives can be mitigated for instances in which environmental and/or user sounds are detected by the automated assistant but do not originate from a particular segment of the environment. Other parameters, such as varying confidence thresholds and/or speech processing biasing, can be temporarily enforced for different segments of an environment in which a user is detected.

Classes IPC  ?

  • G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p.ex. dialogue homme-machine 
  • G06F 3/16 - Entrée acoustique; Sortie acoustique

28.

AGGREGATABLE APPLICATION PROGRAMMING INTERFACE

      
Numéro d'application US2023034794
Numéro de publication 2024/081217
Statut Délivré - en vigueur
Date de dépôt 2023-10-10
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Liu, Naitian

Abrégé

A method (400) for an aggregatable application programming interface (API) includes receiving, from a third party service (150), an aggregation request (20) requesting aggregation of client data (30) from a client (12) of the third party service. The method also includes receiving, from an API (14) executed by a client device (10) of the client, a first portion of the client data (30a). The method includes storing the first portion of the client data and receiving, from the API, a second portion of the client data (30b). The method includes determining that the second portion of the client data is a final portion of the client data. In response, the method includes aggregating the first portion of the client data with the second portion of the client data. The method also includes transmitting the aggregated client data (30A) to the third party service.

Classes IPC  ?

  • H04L 67/10 - Protocoles dans lesquels une application est distribuée parmi les nœuds du réseau

29.

INTERFACE CONNECT DISCONNECT PROTOCOL

      
Numéro d'application US2022046187
Numéro de publication 2024/080965
Statut Délivré - en vigueur
Date de dépôt 2022-10-10
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Kosireddy, Sunitha R.
  • Sastry, Kiran Srinivasa

Abrégé

Methods, systems, and apparatus, including computer programs encoded on computer storage media, for managing an interface between a pair of processing cores of a device that are configured to exchange data. The device is configured to enable or disable one or more of the pair of processing cores. One of the methods includes configuring a connect/disconnect interface implemented as logic circuitry between the pair of processing cores to assume a connected state in which the pair of processing cores and exchange data, and configuring the connect/disconnect interface between the pair of processing cores to assume a disconnected state in which one or more of the processing cores is unable to receive data.

Classes IPC  ?

  • G06F 1/3234 - Gestion de l’alimentation, c. à d. passage en mode d’économie d’énergie amorcé par événements Économie d’énergie caractérisée par l'action entreprise
  • G06F 1/3287 - Gestion de l’alimentation, c. à d. passage en mode d’économie d’énergie amorcé par événements Économie d’énergie caractérisée par l'action entreprise par la mise hors tension d’une unité fonctionnelle individuelle dans un ordinateur
  • G06F 15/163 - Communication entre processeurs

30.

TEXT-DRIVEN COLOR MANIPULATION OF REAL IMAGES

      
Numéro d'application US2022046427
Numéro de publication 2024/080984
Statut Délivré - en vigueur
Date de dépôt 2022-10-12
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Aberman, Kfir
  • Yu, Lucy
  • Jacobs, David Edward

Abrégé

Methods and techniques for manipulating the color of an image based on a text-based description are presented herein. A system can access an input image and an input text. The system can process, using a machine-learned recolorizing model, the input image to generate a recolorized image. A system can determine the similarity between the recolorized image and the input text description using a loss function and pre-trained encoder(s) which have been trained on a large dataset of text and images to convert the text and image inputs into the same embedding space. The system can then modify the one or more parameter values of the machine-learned recolorizing model to minimize the value of the loss function. Thus, after a plurality of iterations, the machine-learned recolorizing model will generate a recolorized photo that matches the description given in the input text.

Classes IPC  ?

  • G06N 3/045 - Combinaisons de réseaux
  • G06N 3/084 - Rétropropagation, p.ex. suivant l’algorithme du gradient
  • G06T 11/00 - Génération d'images bidimensionnelles [2D]

31.

INTER-PREDICTION WITH FILTERING

      
Numéro d'application US2022053152
Numéro de publication 2024/081012
Statut Délivré - en vigueur
Date de dépôt 2022-12-16
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Li, Xiang
  • Chen, Jianle
  • Mukherjee, Debargha
  • Han, Jingning
  • Xu, Yaowu

Abrégé

Decoding a current block using inter prediction with filtering includes identifying an intermediate prediction block for the current block using a motion vector and a reference frame. Filter coefficients are obtained for a filter. The filter coefficients are obtained using reconstructed pixels and second reconstructed pixels. The reconstructed pixels are peripheral to the current block. The second reconstructed pixels are peripheral to the intermediate prediction block. The filter is applied to the intermediate prediction block to obtain a final prediction block. The current block is reconstructed using the final prediction block. Encoding a current block includes obtaining an intermediate motion vector for the current block. Filter coefficients are obtained by minimizing an error metric between a prediction block corresponding to the intermediate motion vector and the current block. A motion vector is obtained for the current block by refining the intermediate motion vector using the filter coefficients.

Classes IPC  ?

  • H04N 19/117 - Filtres, p.ex. pour le pré-traitement ou le post-traitement
  • H04N 19/137 - Mouvement dans une unité de codage, p.ex. différence moyenne de champs, de trames ou de blocs
  • H04N 19/176 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant une zone de l'image, p.ex. un objet la zone étant un bloc, p.ex. un macrobloc
  • H04N 19/186 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant une couleur ou une composante de chrominance
  • H04N 19/196 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par le procédé d’adaptation, l’outil d’adaptation ou le type d’adaptation utilisés pour le codage adaptatif étant spécialement adaptés au calcul de paramètres de codage, p.ex. en faisant la moyenne de paramètres de codage calculés antérieurement
  • H04N 19/46 - Inclusion d’information supplémentaire dans le signal vidéo pendant le processus de compression
  • H04N 19/463 - Inclusion d’information supplémentaire dans le signal vidéo pendant le processus de compression par compression des paramètres d’encodage avant la transmission
  • H04N 19/513 - Traitement de vecteurs de mouvement
  • H04N 19/82 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques - Détails des opérations de filtrage spécialement adaptées à la compression vidéo, p.ex. pour l'interpolation de pixels mettant en œuvre le filtrage dans une boucle de prédiction

32.

COLOR DECORRELATION IN VIDEO AND IMAGE COMPRESSION

      
Numéro d'application US2022053372
Numéro de publication 2024/081013
Statut Délivré - en vigueur
Date de dépôt 2022-12-19
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Li, Xiang
  • Xu, Yaowu
  • Han, Jingning

Abrégé

Image and video compression using color decorrelation is described. A method described herein includes receiving color transform information for an encoded block of image data, wherein the color transform information identifies an adaptive transform matrix used to convert an original block of the image data from an original color space to a new color space, thereby resulting in color decorrelation of the original block. A decoder receives a compressed bitstream including the encoded block that was encoded using the new color space and reconstructs the block from the encoded block. The method includes determining, from the color transform information, the adaptive transform matrix. After reconstructing the block, an inverse color transform of the block is performed using the matrix to obtain pixel values for a reconstructed block corresponding to the original block in the original color space, and the image data including the reconstructed block is stored or transmitted.

Classes IPC  ?

  • H04N 19/12 - Sélection parmi plusieurs transformées ou standards, p.ex. sélection entre une transformée en cosinus discrète [TCD] et une transformée en sous-bandes ou sélection entre H.263 et H.264
  • H04N 19/157 - Mode de codage attribué, c. à d. le mode de codage étant prédéfini ou présélectionné pour être utilisé ultérieurement afin de sélectionner un autre élément ou paramètre
  • H04N 19/176 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant une zone de l'image, p.ex. un objet la zone étant un bloc, p.ex. un macrobloc
  • H04N 19/186 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage adaptatif caractérisés par l’unité de codage, c. à d. la partie structurelle ou sémantique du signal vidéo étant l’objet ou le sujet du codage adaptatif l’unité étant une couleur ou une composante de chrominance
  • H04N 19/463 - Inclusion d’information supplémentaire dans le signal vidéo pendant le processus de compression par compression des paramètres d’encodage avant la transmission
  • H04N 19/70 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques caractérisés par des aspects de syntaxe liés au codage vidéo, p.ex. liés aux standards de compression

33.

AUGMENTING TRAINING OF SEQUENCE TRANSDUCTION MODELS USING TOKEN-LEVEL LOSSES

      
Numéro d'application US2022079703
Numéro de publication 2024/081031
Statut Délivré - en vigueur
Date de dépôt 2022-11-11
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Zhao, Guanlong
  • Wang, Quan
  • Serrano, Beltrán Labrador
  • Lu, Han
  • Moreno, Ignacio Lopez
  • Huang, Yiling

Abrégé

A method (500) includes, for each training sample (410) of a plurality of training samples: processing, using a sequence transduction model (200), corresponding training input features (415) to obtain one or more output token sequence hypotheses (432) each including one or more predicted common tokens (204); and determining a token-level loss (462) based on, for each hypothesis: a number of special token insertions each associated with a corresponding predicted special token that appears in the hypothesis but does not appear in a corresponding sequence of ground-truth output tokens; and a number of special token deletions each associated with a corresponding ground-truth special token in the set of ground-truth special tokens that does not appear in hypothesis. The method also includes training the sequence transduction model to minimize additive error rate based on the token-level losses determined for the plurality of training samples.

Classes IPC  ?

  • G10L 17/04 - Entraînement, enrôlement ou construction de modèle
  • G10L 15/06 - Création de gabarits de référence; Entraînement des systèmes de reconnaissance de la parole, p.ex. adaptation aux caractéristiques de la voix du locuteur
  • G06N 3/0442 - Réseaux récurrents, p.ex. réseaux de Hopfield caractérisés par la présence de mémoire ou de portes, p.ex. mémoire longue à court terme [LSTM] ou unités récurrentes à porte [GRU]
  • G10L 17/18 - Réseaux neuronaux artificiels; Approches connexionnistes
  • G10L 15/08 - Classement ou recherche de la parole
  • G10L 15/16 - Classement ou recherche de la parole utilisant des réseaux neuronaux artificiels
  • G06N 3/09 - Apprentissage supervisé
  • G06N 3/045 - Combinaisons de réseaux

34.

VIRTUAL CHANNEL BALANCING IN RING-BASED TOPOLOGIES

      
Numéro d'application US2023024825
Numéro de publication 2024/081043
Statut Délivré - en vigueur
Date de dépôt 2023-06-08
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Towles, Brian, Patrick
  • Parta, Hojat

Abrégé

Systems and method for routing data packets in ring network. A data packet being transmitted to a destination node may be received by a first structure at a first node. The first node may determine a number of hops the data packet will traverse as it is transmitted from the first node to the destination node and compare the determined number of hops to a threshold hop value to determine whether the number of hops is equal to or less than the threshold hop value. If the number of hops is greater than the threshold, the data packet may be transmitted to a dimension queuing structure for a first virtual channel within a second node, otherwise, the data packet may be transmitted to a dimension queuing structure for a second virtual channel or a turn queuing structure within the second node.

Classes IPC  ?

  • H04L 41/12 - Découverte ou gestion des topologies de réseau
  • H04L 45/00 - Routage ou recherche de routes de paquets dans les réseaux de commutation de données

35.

PROACTIVE RENDERING OF CREDENTIALS ACCORDING TO DETERMINED LOCATION CHARACTERISTICS

      
Numéro d'application US2023028714
Numéro de publication 2024/081056
Statut Délivré - en vigueur
Date de dépôt 2023-07-26
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Sedouram, Ramprasad
  • Klein, Daniel V.

Abrégé

Implementations relate to an automated assistant that can proactively detect and respond to a request for credentials. Characteristics of an entity requesting the credentials can be preemptively determined by the automated assistant using data that may be provided by the user or other previous visitors to a location. For example, the automated assistant can determine that the entity may expressly request certain information from a user when the user arrives at the location. Based on this determination, the automated assistant can operate to initialize an interface of a computing device of the user, when the user is determined to be at or near the location. For example, an audio interface of the computing device can be initialized to capture an audible request from a person who views credentials before granting access to a feature of the location.

Classes IPC  ?

  • G06F 16/9032 - Formulation de requêtes
  • G06F 16/909 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des informations géographiques ou spatiales, p.ex. la localisation

36.

RESTRICTING SECONDARY NODE ADDITION, DELETION, AND MODIFICATION

      
Numéro d'application US2023033114
Numéro de publication 2024/081102
Statut Délivré - en vigueur
Date de dépôt 2023-09-19
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Shetty, Rajaneesh
  • Patil, Surendra

Abrégé

Systems and methods provided for restricting SN status changes. UE generates measurement report B1. Measurement report B1 would, notwithstanding SN status change, trigger SN addition procedure. Determination is made whether the flag within the eNB/gNB for "Restrict-secondary-node-addition" is set to true. If determination is no, then no SN status change restriction is permitted for UE and process proceeds to perform secondary node addition. If determination is yes, determination is made whether the UE has been in connected mode within this cell for time greater than the "time-threshold-for-reject-secondary node-addition" parameter value. If determination is no, perform secondary node addition. If determination is yes, determination is made whether the UE has requested secondary node addition a number of times greater than "number-threshold-for-secondary-node-rejection". If determination is no, performs secondary node addition. If determination is yes, i.e., the eNB/gNB MN determines to not proceed with the secondary node addition request for the UE-reported measurement.

Classes IPC  ?

  • H04W 24/02 - Dispositions pour optimiser l'état de fonctionnement
  • H04W 48/02 - Restriction d'accès effectuée dans des conditions spécifiques
  • H04W 48/08 - Distribution d'informations relatives aux restrictions d'accès ou aux accès, p.ex. distribution de données d'exploration

37.

PHYSICAL LAYER IMPROVEMENTS FOR SHORT RANGE WIRELESS COMMUNICATIONS

      
Numéro d'application US2023033367
Numéro de publication 2024/081111
Statut Délivré - en vigueur
Date de dépôt 2023-09-21
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Kumar, Sunil
  • Yeh, Victor

Abrégé

Various arrangements are presented that provide improvements of short-range wireless communications, such as Bluetooth LE Audio communication. An audio source device may determine that unidirectional audio is to be output. In response to determining that unidirectional audio is to be output, a first physical layer (PHY) configuration can be set for a first communication link in the downlink direction from the audio source device to the audio output device. A second PHY configuration can be set for the communication link in the uplink direction from the audio output device to the audio source device. The first PHY configuration has a greater symbol rate than the second PHY configuration.

Classes IPC  ?

38.

RENDERING AUGMENTED REALITY CONTENT BASED ON POST-PROCESSING OF APPLICATION CONTENT

      
Numéro d'application US2023034380
Numéro de publication 2024/081130
Statut Délivré - en vigueur
Date de dépôt 2023-10-03
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Sedouram, Ramprasad

Abrégé

Implementations relate to an automated assistant that provides augmented reality content, via a display interface of computerized glasses, resulting from post-processing of application content. The application content can be identified based on prior interactions between a user and one or more applications, and the application content can be processed to determine objects, and/or object classifications, that may be associated with the application content. When the user is wearing the computerized glasses, and the object is detected within a field of view of the computerized glasses, the automated assistant can cause certain content to be rendered at the display interface of the computerized glasses. In some implementations, the content can be generated to supplement, and/or be different from, existing content that the user may have already accessed, in furtherance of preventing duplicative usage of applications and/or preserving computational resources.

Classes IPC  ?

  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur

39.

EVALUATION-BASED SPEAKER CHANGE DETECTION EVALUATION METRICS

      
Numéro d'application US2023034766
Numéro de publication 2024/081203
Statut Délivré - en vigueur
Date de dépôt 2023-10-09
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Zhao, Guanlong
  • Wang, Quan
  • Lu, Han
  • Huang, Yiling
  • Pelecanos, Jason

Abrégé

A method (600) includes obtaining a multi-utterance training sample (410) that includes audio data (412) characterizing utterances spoken by two or more different speakers (10) and obtaining ground-truth speaker change intervals (414) indicating time intervals in the audio data where speaker changes among the two or more different speakers occur. The method also includes processing the audio data to generate a sequence of predicted speaker change tokens (302) using a sequence transduction model (300). For each corresponding predicted speaker change token, the method includes labeling the corresponding predicted speaker change token as correct when the predicted speaker change token overlaps with one of the ground-truth speaker change intervals. The method also includes determining a precision metric (442) of the sequence transduction model based on a number of the predicted speaker change tokens labeled as correct and a total number of the predicted speaker change tokens.

Classes IPC  ?

  • G10L 17/04 - Entraînement, enrôlement ou construction de modèle
  • G10L 15/06 - Création de gabarits de référence; Entraînement des systèmes de reconnaissance de la parole, p.ex. adaptation aux caractéristiques de la voix du locuteur
  • G06N 3/0442 - Réseaux récurrents, p.ex. réseaux de Hopfield caractérisés par la présence de mémoire ou de portes, p.ex. mémoire longue à court terme [LSTM] ou unités récurrentes à porte [GRU]
  • G10L 17/18 - Réseaux neuronaux artificiels; Approches connexionnistes
  • G10L 15/08 - Classement ou recherche de la parole
  • G10L 15/16 - Classement ou recherche de la parole utilisant des réseaux neuronaux artificiels
  • G06N 3/09 - Apprentissage supervisé
  • G06N 3/045 - Combinaisons de réseaux

40.

UNIVERSAL MONOLINGUAL OUTPUT LAYER FOR MULTILINGUAL SPEECH RECOGNITION

      
Numéro d'application US2023034972
Numéro de publication 2024/081332
Statut Délivré - en vigueur
Date de dépôt 2023-10-11
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Zhang, Chao
  • Li, Bo
  • Sainath, Tara N
  • Strohman, Trevor
  • Chang, Shuo-Yiin

Abrégé

A method (500) includes receiving a sequence of acoustic frames (100) as input to a multilingual automated speech recognition (ASR) model (200) configured to recognize speech in a plurality of different supported languages and generating, by an audio encoder (204) of the multilingual ASR, a higher order feature representation (212, 222) for a corresponding acoustic frame. The method also includes generating, by a language identification (LID) predictor (230) of the multilingual ASR, a language prediction representation (232) for a corresponding higher order feature representation. The method also includes generating, by a decoder (240) of the multilingual ASR, a probability distribution (252) over possible speech recognition results based on the corresponding higher order feature representation, a sequence of non-blank symbols (121), and a corresponding language prediction representation. The decoder includes monolingual output layer (400) having a plurality of output nodes (410) each sharing a plurality of language-specific wordpiece models (420).

Classes IPC  ?

  • G10L 15/16 - Classement ou recherche de la parole utilisant des réseaux neuronaux artificiels
  • G10L 15/02 - Extraction de caractéristiques pour la reconnaissance de la parole; Sélection d'unités de reconnaissance 

41.

ACCESSING LOCALIZED SERVICES IN A WIRELESS COMMUNICATION SYSTEM

      
Numéro d'application US2023076513
Numéro de publication 2024/081679
Statut Délivré - en vigueur
Date de dépôt 2023-10-10
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Liao, Ching-Yu

Abrégé

A method for accessing localized services of a hosting network is implemented in a user equipment (UE) associated with a home network. The method includes receiving an indication of whether the UE is to access the localized services of the hosting network via the hosting network or a serving network distinct from the hosting network (1212); and accessing the localized services in accordance with the indication (i) directly via a radio access network (RAN) of the hosting network (1240) or (ii) via a RAN of the serving network operating as an underlay network, and the hosting network operating as an overlay network (1242).

Classes IPC  ?

  • H04W 48/18 - Sélection d'un réseau ou d'un service de télécommunications
  • H04W 8/12 - Transfert de données de mobilité entre registres de localisation ou serveurs de mobilité
  • H04W 84/04 - Réseaux à grande échelle; Réseaux fortement hiérarchisés

42.

WAVEGUIDE WITH OVERLAPPING REFLECTIVE FACETS

      
Numéro d'application US2023076545
Numéro de publication 2024/081698
Statut Délivré - en vigueur
Date de dépôt 2023-10-11
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Adema, Daniel
  • Bodiya, Timothy Paul

Abrégé

A waveguide includes an outcoupler that is implemented in the waveguide as a set of reflective facets that is arranged along a first direction. Each reflective facet is made by applying a reflective coating to a planar face of one or more substrates. Adjacent reflective facets in the set of reflective facets overlap one another along the first direction. For example, a leading portion of one reflective facet in the set of reflective facets overlaps with a tailing portion of the reflective facet adjacent to it.

Classes IPC  ?

  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,

43.

A GENERALIST FRAMEWORK FOR PANOPTIC SEGMENTATION OF IMAGES AND VIDEOS

      
Numéro d'application US2023076678
Numéro de publication 2024/081778
Statut Délivré - en vigueur
Date de dépôt 2023-10-12
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Chen, Ting
  • Li, Yi
  • Saxena, Saurabh
  • Hinton, Geoffrey Everest
  • Fleet, David James

Abrégé

Provided are systems and methods for performing panoptic segmentation of images and videos using a denoising diffusion model. The panoptic segmentation task is formulated as a conditional discrete data generation problem. This is achieved by learning a generative model for panoptic masks, for example treated as an array of discrete tokens, conditioned on an input image. The generative model can also be applied to video data by including predictions from past frames as an additional conditioning signal. This enables the model to learn to track and segment objects automatically across video frames.

Classes IPC  ?

  • G06V 10/82 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant les réseaux neuronaux
  • G06N 3/045 - Combinaisons de réseaux

44.

DETERMINING ATTRIBUTES FOR ELEMENTS OF DISPLAYABLE CONTENT AND ADDING THEM TO AN ACCESSIBILITY TREE

      
Numéro d'application US2023076757
Numéro de publication 2024/081825
Statut Délivré - en vigueur
Date de dépôt 2023-10-13
Date de publication 2024-04-18
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Tseng, David
  • Halavati, Ramin
  • Paisios, Nektarios

Abrégé

A method may receive an image representing displayable content for display by an application. A method may execute a layout extraction model using the image as input and generating a list of elements for the image as output, the list of elements including at least a bounding box defining a portion of the image and a role attribute. A method may add the role attribute to a node in an accessibility tree using the list of elements.

Classes IPC  ?

45.

INTENT RESOLUTION ACROSS HIERARCHICAL USER PROFILES

      
Numéro d'application US2023075743
Numéro de publication 2024/076931
Statut Délivré - en vigueur
Date de dépôt 2023-10-02
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Dalwani, Sarup Jagdish
  • Coenen, Martijn Franciscus Agnes
  • Baumann, Patrick Lee
  • Pathak, Saumya
  • Naik, Smitha
  • Chitnis, Kedar Satish

Abrégé

A device, method and article of manufacture related to a mechanism for cross profile intent resolution is disclosed. -An example method includes, in response to detecting a first user input associated with a first user profile stored on the computing device, generating a first intent that corresponds to the first user input, applying a sequence of cross profile intent filters to traverse a user profile hierarchy from the first user profile to a second user profile stored on the computing device, wherein the traversal of the user profile hierarchy is based on a successful resolution of each cross profile intent filter of the sequence of cross profile intent filters, identifying an application associated with the second user profile and configured to satisfy the first intent, and providing functionality from the application to satisfy the first intent via the first user profile.

Classes IPC  ?

46.

CUSTOMIZABLE USER INTERFACE FOR A DEVICE MANAGEMENT SYSTEM

      
Numéro d'application US2023075866
Numéro de publication 2024/077010
Statut Délivré - en vigueur
Date de dépôt 2023-10-03
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Allen, John-Ashton
  • Huang, Shinyi
  • Goese, Ruiyi Song
  • Varga, Stephen
  • Yang, Suwei
  • Utley, Hiedi Lynn
  • Singh, Gajendra
  • Tai, Ryan Kam Wang

Abrégé

This document describes systems and techniques for a customizable user interface for a device management system. In aspects, a user interface of a device management system includes one or more widgets grouped by at least one category. Each widget of the one or more widgets is associated with at least one network-connected device and is configured to provide at least one of an action functionality, an automation functionality, or image data. Widgets can be organized within spaces to enhance user experience.

Classes IPC  ?

  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p.ex. interaction avec des règles ou des cadrans
  • H04L 12/28 - Réseaux de données à commutation caractérisés par la configuration des liaisons, p.ex. réseaux locaux [LAN Local Area Networks] ou réseaux étendus [WAN Wide Area Networks]
  • H04N 23/661 - Transmission des signaux de commande de la caméra par le biais de réseaux, p. ex. la commande via Internet
  • H05B 47/19 - Commande de la source lumineuse par télécommande via une transmission sans fil

47.

ENHANCED VIDEO-PLAYBACK INTERFACE

      
Numéro d'application US2023075869
Numéro de publication 2024/077012
Statut Délivré - en vigueur
Date de dépôt 2023-10-03
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Allen, John-Ashton
  • Huang, Shinyi
  • Goese, Ruiyi Song
  • Varga, Stephen
  • Yang, Suwei
  • Utley, Hiedi Lynn
  • Singh, Gajendra
  • Tai, Ryan Kam Wang

Abrégé

This document describes systems and techniques for an enhanced video-playback interface. In aspects, a first region displays a first set of images including at least one image, a horizontal timeline, and a horizontal time indicator configured to transition with respect to the horizontal timeline. A second region displays a vertical timeline and a vertical time indicator on the vertical timeline configured to transition with respect to the vertical time indicator. The horizontal time indicator or the vertical timeline can be transitioned with respect to the horizontal timeline or the vertical time indicator, respectively, causing the first region to display a second set of images. In this way, the enhanced video-playback interface can provide an overview of events captured by a camera and enable low-resolution or high-resolution scrubbing through images in sets of image data.

Classes IPC  ?

  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p.ex. interaction avec des règles ou des cadrans
  • H04L 12/28 - Réseaux de données à commutation caractérisés par la configuration des liaisons, p.ex. réseaux locaux [LAN Local Area Networks] ou réseaux étendus [WAN Wide Area Networks]
  • H04N 23/661 - Transmission des signaux de commande de la caméra par le biais de réseaux, p. ex. la commande via Internet
  • H05B 47/19 - Commande de la source lumineuse par télécommande via une transmission sans fil

48.

CAMERA SYSTEM INCLUDING A MONOCHROME CAMERA AND A COLOR CAMERA HAVING GLOBAL SHUTTER SENSORS

      
Numéro d'application US2022045659
Numéro de publication 2024/076338
Statut Délivré - en vigueur
Date de dépôt 2022-10-04
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Martin, David

Abrégé

A camera system includes a monochrome camera, having a global shutter, to capture a first image of a scene, and a color camera, disposed separately from the monochrome camera and having a global shutter, to capture a second image of the scene. The second image is aligned to the first image and color information of the second image is provided to the first image to obtain a third image representing the scene.

Classes IPC  ?

  • H04N 23/45 - Caméras ou modules de caméras comprenant des capteurs d'images électroniques; Leur commande pour générer des signaux d'image à partir de plusieurs capteurs d'image de type différent ou fonctionnant dans des modes différents, p. ex. avec un capteur CMOS pour les images en mouvement en combinaison avec un dispositif à couplage de charge [CCD]
  • H04N 23/951 - Systèmes de photographie numérique, p. ex. systèmes d'imagerie par champ lumineux en utilisant plusieurs images pour influencer la résolution, la fréquence d'images ou le rapport de cadre
  • G06T 5/50 - Amélioration ou restauration d'image en utilisant plusieurs images, p.ex. moyenne, soustraction

49.

INDICATION OF CONFIDENCE IN MACHINE-LEARNED OUTPUTS VIA HAPTIC FEEDBACK

      
Numéro d'application US2022052566
Numéro de publication 2024/076356
Statut Délivré - en vigueur
Date de dépôt 2022-12-12
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Marchant, Robert
  • Holland, Henry John
  • Butler, Tríona Eidín
  • Jones, David Matthew
  • Spitz, Andrew Gregory
  • Van Der Vleuten, Ruben
  • Mastenbroek, Anna Kay Luna
  • Christidis, Konstantinos

Abrégé

Systems and methods for indicating confidence in a machine-learned output via haptic feedback are provided. For example, a method includes obtaining, by a user computing device, an output of a machine-learned model and an associated confidence metric. The confidence metric is indicative of a degree of confidence in the output of the machine-learned model. The method includes determining a haptic feedback signal indicative of the confidence metric. The method includes receiving data indicative of an input associated with the output of the machine-learned model by a user of the user computing device. The method includes, responsive to receiving the data indicative of the input associated with the output of the machine-learned model, causing performance of the haptic feedback signal for the user via one or more haptic feedback devices.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/16 - Entrée acoustique; Sortie acoustique

50.

FIELD OF VIEW CORRECTION TECHNIQUES FOR SHUTTERLESS CAMERA SYSTEMS

      
Numéro d'application US2022077517
Numéro de publication 2024/076363
Statut Délivré - en vigueur
Date de dépôt 2022-10-04
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Cheng, Hua
  • Wang, Youyou
  • Yi, Chucai
  • Shi, Fhuao

Abrégé

Example embodiments relate to field of view correction techniques for shutterless camera systems. A mobile device displaying an initial preview of a scene being captured by an image capturing device of the computing device may determine a zoom operation configured to cause the imaging capturing device to focus on a target. The imaging capturing device is configured to change focal length when performing the zoom operation. While the image capturing device performs the zoom operation, the computing device may then map focal lengths used by the imaging capturing device to a virtual focal length such that a field of view of the scene remains consistent across image frames displayed by the display screen between the initial preview of the scene and the zoomed preview of the scene that focuses on the target and display the zoomed preview of the scene that focuses on the target.

Classes IPC  ?

  • H04N 23/63 - Commande des caméras ou des modules de caméras en utilisant des viseurs électroniques
  • H04N 23/67 - Commande de la mise au point basée sur les signaux électroniques du capteur d'image
  • H04N 23/68 - Commande des caméras ou des modules de caméras pour une prise de vue stable de la scène, p. ex. en compensant les vibrations du boîtier de l'appareil photo
  • H04N 23/69 - Commande de moyens permettant de modifier l'angle du champ de vision, p. ex. des objectifs de zoom optique ou un zoom électronique
  • G02B 7/04 - Montures, moyens de réglage ou raccords étanches à la lumière pour éléments optiques pour lentilles avec mécanisme de mise au point ou pour faire varier le grossissement
  • G02B 7/28 - Systèmes pour la génération automatique de signaux de mise au point
  • G03B 13/36 - Systèmes de mise au point automatique
  • H04N 17/00 - Diagnostic, test ou mesure, ou leurs détails, pour les systèmes de télévision
  • H04N 23/81 - Chaînes de traitement de la caméra; Leurs composants pour supprimer ou minimiser les perturbations lors de la génération de signaux d'image

51.

ACCELERATING SPEAKER DIARIZATION WITH MULTI-STAGE CLUSTERING

      
Numéro d'application US2022077636
Numéro de publication 2024/076365
Statut Délivré - en vigueur
Date de dépôt 2022-10-05
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Wang, Quan
  • Huang, Yiling
  • Lu, Han
  • Zhao, Guanlong

Abrégé

A method (500) includes receiving an input audio signal (122) that corresponds to utterances (120) spoken by multiple speakers. The method also includes processing the input audio to generate a transcription (200) of the utterances and a sequence of speaker turn tokens (224) each indicating a location of a respective speaker turn. The method also includes segmenting the input audio signal into a plurality of speaker segments (225) based on the sequence of speaker tokens. The method also includes extracting a speaker-discriminative embedding from each speaker segment and performing spectral clustering on the speaker-discriminative embeddings to cluster the plurality of speaker segments into k classes. The method also includes assigning a respective speaker label (250) to each speaker segment clustered into the respective class that is different than the respective speaker label assigned to the speaker segments clustered into each other class of the k classes.

Classes IPC  ?

  • G10L 17/04 - Entraînement, enrôlement ou construction de modèle
  • G10L 17/18 - Réseaux neuronaux artificiels; Approches connexionnistes

52.

FOLDING PORTABLE DISPLAY DEVICE

      
Numéro d'application US2022077777
Numéro de publication 2024/076372
Statut Délivré - en vigueur
Date de dépôt 2022-10-07
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Ou, Tsung-Yuan

Abrégé

An example folding device includes a hinge assembly that is coplanar with the continuous display of the device in order to decrease the thickness of the device. The hinge assembly includes torque members that increase the amount of force needed to rotate the assemblies. In this way, the torque members may provide the device with a more rigid feel. Also in this way, the torque members may enable the device to hold intermediate positions between fully open and fully closed.

Classes IPC  ?

  • G06F 1/16 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES - Détails non couverts par les groupes et - Détails ou dispositions de structure
  • H04M 1/02 - Caractéristiques de structure des appareils téléphoniques

53.

JOINT CONNECTED ISOCHRONOUS STREAM COMMUNICATION

      
Numéro d'application US2023026906
Numéro de publication 2024/076402
Statut Délivré - en vigueur
Date de dépôt 2023-07-05
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Kumar, Sunil
  • Barros, Daniel

Abrégé

Various arrangements are presented that include a pair of true wireless earbuds. The second earbud can be configured to receive an audio packet addressed to only the first earbud and outputs audio based on the audio packet. This audio packet, despite being transmitted by the audio source to only the first earbud, can include audio data for two audio channels.

Classes IPC  ?

54.

IDENTIFYING AND CORRECTING AUTOMATIC SPEECH RECOGNITION (ASR) MISRECOGNITIONS IN A DECENTRALIZED MANNER

      
Numéro d'application US2023027036
Numéro de publication 2024/076403
Statut Délivré - en vigueur
Date de dépôt 2023-07-06
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Mathews, Rajiv
  • Prabhavalkar, Rohit
  • Motta, Giovanni
  • Chen, Mingqing
  • Zhou, Lillian
  • Guliani, Dhruv
  • Zhang, Harry
  • Strohman, Trevor
  • Beaufays, Françoise

Abrégé

Implementations described herein identify and correct automatic speech recognition (ASR) misrecognitions. For example, on-device processor(s) of a client device may generate a predicted textual segment that is predicted to correspond to spoken utterance of a user of the client device, and may receive further input that modifies the predicted textual segment to an alternate textual segment. Further, the on-device processor(s) may store these textual segments in on-device storage as a candidate correction pair, and transmit the candidate correction pair to a remote system. Moreover, remote processor(s) of the remote system may determine that the candidate correction pair is an actual correction pair, and may cause client devices to generate updates for a global ASR model for the candidate correction pair. Additionally, the remote processor(s) may distribute the global ASR model to the client devices and/or additional client devices.

Classes IPC  ?

  • G10L 15/32 - Reconnaisseurs multiples utilisés en séquence ou en parallèle; Systèmes de combinaison de score à cet effet, p.ex. systèmes de vote
  • G10L 15/065 - Adaptation
  • G10L 15/30 - Reconnaissance distribuée, p.ex. dans les systèmes client-serveur, pour les applications en téléphonie mobile ou réseaux

55.

EARBUD-TO-EARBUD CROSS-ACKNOWLEDGEMENT AND COMMUNICATION RELAY

      
Numéro d'application US2023031470
Numéro de publication 2024/076439
Statut Délivré - en vigueur
Date de dépôt 2023-08-30
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Barros, Daniel
  • Kumar, Sunil

Abrégé

Various arrangements for short-range wireless communication between audio output devices, such as true wireless earbuds, are presented herein. A first earbud of a pair of earbuds may determine that a first audio packet addressed to the first earbud from an audio source was not properly received. However, a second earbud of the pair of earbuds may properly receive the first audio packet addressed to the first earbud. The second earbud can then, directly to the first earbud, transmit a cross acknowledgement indicating that the second earbud properly received the audio packet.

Classes IPC  ?

56.

VOICE QUERY HANDLING IN AN ENVIRONMENT WITH MULTIPLE USERS

      
Numéro d'application US2023032459
Numéro de publication 2024/076452
Statut Délivré - en vigueur
Date de dépôt 2023-09-12
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Sharifi, Matthew
  • Carbune, Victor

Abrégé

A method (500) includes receiving a first query (116) issued by a first user, the first query including a command (111) for a digital assistant (105) to perform a first action, and enabling a round robin mode (350) to control performance of actions. The method also includes, while performing the first action, receiving audio data (402) corresponding to a second query (146) including a command to perform a second action, performing speaker identification on the audio data, determining that the second query was spoken by the first user, preventing performing the second action, and prompting at least another user to issue a query. The method further includes receiving a third query (148) issued by a second user, the third query including a command for the digital assistant to perform a third action, and when the digital assistant completes performing the first action, executing performance of the third action.

Classes IPC  ?

  • G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p.ex. dialogue homme-machine 
  • G06F 3/16 - Entrée acoustique; Sortie acoustique
  • G10L 17/22 - Procédures interactives; Interfaces homme-machine
  • G10L 17/00 - Identification ou vérification du locuteur

57.

HYBRID AUTO-FOCUS SYSTEM WITH ROBUST MACRO OBJECT PRIORITY FOCUSING

      
Numéro d'application US2023034281
Numéro de publication 2024/076531
Statut Délivré - en vigueur
Date de dépôt 2023-10-02
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Gamadia, Mark
  • Wang, Minchieh
  • Kim, Jae, Soo
  • Yang, Yang
  • Lou, Ying, Chen

Abrégé

An example method includes displaying a zoomed preview of a scene captured by a camera system. The method includes determining a phase-detect autofocus (PDAF) depth estimate and a time-of-flight (ToF) depth estimate for the scene. The method includes, based on a comparison of the PDAF and ToF depth estimates, determining whether a foreground object in the zoomed preview is in-focus for a ToF based AF mode. The method includes, based on a determination that the foreground object in the zoomed preview is in-focus for the ToF based AF mode, bypassing a PDAF mode and activating the ToF based AF mode to focus on the foreground object. The method includes displaying, based on the ToF based AF mode, the focused foreground object as part of the zoomed preview of the scene.

Classes IPC  ?

  • H04N 23/67 - Commande de la mise au point basée sur les signaux électroniques du capteur d'image
  • H04N 23/667 - Changement de mode de fonctionnement de la caméra, p. ex. entre les modes photo et vidéo, sport et normal ou haute et basse résolutions
  • H04N 23/69 - Commande de moyens permettant de modifier l'angle du champ de vision, p. ex. des objectifs de zoom optique ou un zoom électronique
  • H04N 23/959 - Systèmes de photographie numérique, p. ex. systèmes d'imagerie par champ lumineux pour l'imagerie à grande profondeur de champ en ajustant la profondeur de champ pendant la capture de l'image, p. ex. en maximisant ou en réglant la portée en fonction des caractéristiques de la scène
  • G02B 7/28 - Systèmes pour la génération automatique de signaux de mise au point
  • G02B 7/34 - Systèmes pour la génération automatique de signaux de mise au point utilisant des zones différentes dans un plan pupillaire
  • G02B 7/36 - Systèmes pour la génération automatique de signaux de mise au point utilisant des techniques liées à la netteté de l'image
  • G02B 7/40 - Systèmes pour la génération automatique de signaux de mise au point utilisant le retard des ondes réfléchies, p.ex. d'ondes ultrasonores

58.

HANDLING CONTRADICTORY QUERIES ON A SHARED DEVICE

      
Numéro d'application US2023034362
Numéro de publication 2024/076565
Statut Délivré - en vigueur
Date de dépôt 2023-10-03
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Sharifi, Matthew
  • Carbune, Victor

Abrégé

A method (600) for handling contradictory queries on a shared device includes receiving a first query (106) issued by a first user (106a), the first query specifying a first long-standing operation (111) for a digital assistant (105) to perform, and while the digital assistant is performing the first long-standing operation, receiving a second query (146), the second query specifying a second long-standing operation (112) for the digital assistant to perform. The method also includes determining that the second query was issued by another user (102b) different than the first user and determining, using a query resolver (340), that performing the second long-standing operation would conflict with the first long-standing operation. The method further includes identifying one or more compromise operations (354) for the digital assistant to perform, and instructing the digital assistant to perform a selected compromise operation among the identified one or more compromise operations.

Classes IPC  ?

  • G06F 16/903 - Requêtes
  • G06F 3/16 - Entrée acoustique; Sortie acoustique
  • G06F 21/32 - Authentification de l’utilisateur par données biométriques, p.ex. empreintes digitales, balayages de l’iris ou empreintes vocales

59.

TABLE CELL SPLITTING IN AN ONLINE DOCUMENT EDITOR

      
Numéro d'application US2023034397
Numéro de publication 2024/076588
Statut Délivré - en vigueur
Date de dépôt 2023-10-03
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Aberbach, Tomer
  • Galante, Gregory George

Abrégé

Techniques are described herein for table cell splitting in an online document editor. A method includes: responsive to a request to split a cell in a table, determining a target number of rows and a target number of columns, automatically inserting rows adjacent to rows of the cell to reach the target number of rows, automatically inserting columns adjacent to columns of the cell to reach the target number of columns, and automatically merging groups of cells within an initial boundary of the cell, each group spanning a determined number of rows per group and a determined number of columns per group.

Classes IPC  ?

  • G06F 40/18 - Traitement de texte Édition, p.ex. insertion ou suppression utilisant des lignes réglées de tableurs

60.

METHODS FOR DETERMINING REGIONS OF INTEREST FOR CAMERA AUTO-FOCUS

      
Numéro d'application US2023034441
Numéro de publication 2024/076617
Statut Délivré - en vigueur
Date de dépôt 2023-10-04
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Molina Vela, Francisco, Javier
  • Reardon, Andrew, Patrick
  • Chan, Leung, Chun
  • Lou, Ying, Chen

Abrégé

A method includes receiving an image frame captured by an image capturing device. The method also includes determining a saliency heatmap representing saliency of pixels in the image frame. The method further includes determining, based on the saliency heatmap, a primary region of interest (ROI) and a secondary ROI for the image frame. The method additionally includes determining a filtered ROI for the image frame, where the filtered ROI updates from a previous filtered ROI to the primary ROI or the secondary ROI based on a saliency difference between the previous filtered ROI and the primary ROI or the secondary ROI exceeding a first threshold. The method also includes applying one or more auto-focus processes based on the filtered ROI, the primary ROI, or the secondary ROI.

Classes IPC  ?

  • H04N 23/67 - Commande de la mise au point basée sur les signaux électroniques du capteur d'image
  • G06V 10/25 - Détermination d’une région d’intérêt [ROI] ou d’un volume d’intérêt [VOI]
  • G06T 7/00 - Analyse d'image

61.

REAL-TIME FEEDBACK TO IMPROVE IMAGE CAPTURE

      
Numéro d'application US2023034460
Numéro de publication 2024/076631
Statut Délivré - en vigueur
Date de dépôt 2023-10-04
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Wang, Lingeng
  • Kim, Paul, Samuel
  • Luedemann, Dimitri De Abreu E Lima
  • Lee, Seungyon
  • Xia, Bingying
  • Lue, Chia-Fang

Abrégé

This document describes systems and techniques directed to providing real-time feedback to improve self-portrait photographs (selfies) or other images for camera users (e.g., low-vision camera users). In aspects, the systems and techniques are implemented on computing devices having a front-facing camera or a rear-facing camera. The systems and techniques may track the user's face and provide haptic, audio, and/or visual feedback to guide the user to position at least one of the computing device or the user so that the user becomes positioned in a center of frame of the camera. In an aspect, a user interface may display visual indicators that flash over a viewfinder image of a camera displayed on a computing device display. The visual indicators may increase in brightness near a user's face to guide a user to the center of the frame of the camera. In another aspect, the user interface may display a high-contrast outline of the user's face and/or torso on the display to provide feedback to the user of their position in the frame. In another aspect, the user may receive an audio detail description of what is in the viewfinder to confirm desired faces and objects are included. Through such systems and techniques, a user can take a high-quality self-portrait even when they have limited or no ability to see a display screen of the computing device.

Classes IPC  ?

  • H04N 23/60 - Commande des caméras ou des modules de caméras
  • H04N 23/61 - Commande des caméras ou des modules de caméras en fonction des objets reconnus
  • H04N 23/611 - Commande des caméras ou des modules de caméras en fonction des objets reconnus les objets reconnus comprenant des parties du corps humain
  • H04N 23/63 - Commande des caméras ou des modules de caméras en utilisant des viseurs électroniques
  • H04N 23/45 - Caméras ou modules de caméras comprenant des capteurs d'images électroniques; Leur commande pour générer des signaux d'image à partir de plusieurs capteurs d'image de type différent ou fonctionnant dans des modes différents, p. ex. avec un capteur CMOS pour les images en mouvement en combinaison avec un dispositif à couplage de charge [CCD]
  • G06V 40/60 - Moyens statiques ou dynamiques permettant d’aider l’utilisateur à positionner une partie du corps pour l’acquisition de données biométriques
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/048 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI]

62.

POWER SUPPLIES FOR COMPUTE CORES

      
Numéro d'application US2022045848
Numéro de publication 2024/076342
Statut Délivré - en vigueur
Date de dépôt 2022-10-06
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Oikarinen, Juha Joonas

Abrégé

This document describes power supplies for compute cores. In one aspect, a power supply system for a compute core includes a primary power converter configured to provide and regulate direct current (DC) power to the compute core over a power rail that electrically couples an output of the primary power converter to the compute core. The power supply system also includes a transient suppressor circuit coupled to the power rail and configured to suppress transient voltage differences between a target supply voltage for the compute core and an actual supply voltage to the compute core.

Classes IPC  ?

  • H02M 3/158 - Transformation d'une puissance d'entrée en courant continu en une puissance de sortie en courant continu sans transformation intermédiaire en courant alternatif par convertisseurs statiques utilisant des tubes à décharge avec électrode de commande ou des dispositifs à semi-conducteurs avec électrode de commande utilisant des dispositifs du type triode ou transistor exigeant l'application continue d'un signal de commande utilisant uniquement des dispositifs à semi-conducteurs avec commande automatique de la tension ou du courant de sortie, p.ex. régulateurs à commutation comprenant plusieurs dispositifs à semi-conducteurs comme dispositifs de commande finale pour une charge unique
  • H02M 1/00 - APPAREILS POUR LA TRANSFORMATION DE COURANT ALTERNATIF EN COURANT ALTERNATIF, DE COURANT ALTERNATIF EN COURANT CONTINU OU VICE VERSA OU DE COURANT CONTINU EN COURANT CONTINU ET EMPLOYÉS AVEC LES RÉSEAUX DE DISTRIBUTION D'ÉNERGIE OU DES SYSTÈMES D'ALI; TRANSFORMATION D'UNE PUISSANCE D'ENTRÉE EN COURANT CONTINU OU COURANT ALTERNATIF EN UNE PUISSANCE DE SORTIE DE CHOC; LEUR COMMANDE OU RÉGULATION - Détails d'appareils pour transformation
  • G05F 1/10 - Régulation de la tension ou de l'intensité
  • G06F 1/28 - Surveillance, p.ex. détection des pannes d'alimentation par franchissement de seuils

63.

STABILIZED OBJECT TRACKING AT HIGH MAGNIFICATION RATIOS

      
Numéro d'application US2022077510
Numéro de publication 2024/076362
Statut Délivré - en vigueur
Date de dépôt 2022-10-04
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Ji, Suyao
  • Shi, Fuhao
  • Liang, Chia-Kai
  • Kim, Arthur
  • Nava Vazquez, Gabriel

Abrégé

An example method includes displaying, by a display screen of an image capturing device, a preview of an image representing a field of view of the image capturing device. The method includes determining a region of interest in the preview. The method includes transitioning the image capturing device from a normal mode of operation to a zoomed mode of operation. The zoomed mode of operation includes: determining, based on sensor data collected by a sensor associated with the image capturing device, a motion trajectory for the region of interest, and based on the determined motion trajectory, generating an adjusted preview representing a zoomed portion of the field of view. The adjusted preview displays the region of interest at or near a center of the zoomed portion. The method includes providing the adjusted preview of the portion of the field of view.

Classes IPC  ?

  • H04N 23/61 - Commande des caméras ou des modules de caméras en fonction des objets reconnus
  • H04N 23/63 - Commande des caméras ou des modules de caméras en utilisant des viseurs électroniques
  • H04N 23/68 - Commande des caméras ou des modules de caméras pour une prise de vue stable de la scène, p. ex. en compensant les vibrations du boîtier de l'appareil photo
  • H04N 23/69 - Commande de moyens permettant de modifier l'angle du champ de vision, p. ex. des objectifs de zoom optique ou un zoom électronique
  • H04N 5/262 - Circuits de studio, p.ex. pour mélanger, commuter, changer le caractère de l'image, pour d'autres effets spéciaux
  • H04N 5/272 - Moyens pour insérer une image de premier plan dans une image d'arrière plan, c. à d. incrustation, effet inverse
  • H04N 23/611 - Commande des caméras ou des modules de caméras en fonction des objets reconnus les objets reconnus comprenant des parties du corps humain
  • H04N 23/667 - Changement de mode de fonctionnement de la caméra, p. ex. entre les modes photo et vidéo, sport et normal ou haute et basse résolutions

64.

REAL-TIME HIGH-FIDELITY IMAGE RESTORATION USING ITERATIVE LEARNING

      
Numéro d'application US2023023964
Numéro de publication 2024/076394
Statut Délivré - en vigueur
Date de dépôt 2023-05-31
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Hou, Tingbo
  • Su, Yu-Chuan
  • Zhao, Yang
  • Jia, Xuhui
  • Grundmann, Matthias

Abrégé

Improved multi-stage methods for training models to enhance input images are provided. The multi-stage methods include training a first model to predict high-quality images based on synthetically degraded versions thereof. The first model is then used to generate, from the high quality images, enhanced, images that can then be used (in combination with synthetically degraded versions thereof) to train additional image enhancement models at two different resolutions. The additional image enhancement models are then applied, in series, to enhance input images. Such a serial image enhancement pipeline can then be used to train a smaller student model that can be implemented on smartphones or other limited-resource systems. This can include using the serial image enhancement pipeline to generate enhanced versions of low-quality images (e.g., as might be generated from a front-facing smartphone camera) that can then be used with the input low-quality images to train the student model.

Classes IPC  ?

  • G06T 5/00 - Amélioration ou restauration d'image

65.

GENERATION AND UTILIZATION OF PSEUDO-CORRECTION(S) TO PREVENT FORGETTING OF PERSONALIZED ON-DEVICE AUTOMATIC SPEECH RECOGNITION (ASR) MODEL(S)

      
Numéro d'application US2023027141
Numéro de publication 2024/076404
Statut Délivré - en vigueur
Date de dépôt 2023-07-07
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Mathews, Rajiv
  • Zivkovic, Dragan
  • Sim, Khe Chai

Abrégé

On-device processor(s) of a client device may store, in on-device storage and in association with a time to live (TTL) in the on-device storage, a correction directed to ASR processing of audio data. The correction may include a portion of a given speech hypothesis that was modified to an alternate speech hypothesis. Further, the on-device processor(s) may cause an on-device ASR model to be personalized based on the correction. Moreover, and based on additional ASR processing of additional audio data, the on-device processor(s) may store, in the on-device storage and in association with an additional TTL in the on-device storage, a pseudo-correction directed to the additional ASR processing. Accordingly, the on-device processor(s) may cause the on-device ASR model to be personalized based on the pseudo-correction to prevent forgetting by the on-device ASR model.

Classes IPC  ?

  • G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p.ex. dialogue homme-machine 
  • G10L 15/07 - Adaptation au locuteur
  • G10L 15/26 - Systèmes de synthèse de texte à partir de la parole

66.

TEXT-BASED VALIDATION OF USER INTERFACE TO CONFIRM USER INTENT

      
Numéro d'application US2023032637
Numéro de publication 2024/076457
Statut Délivré - en vigueur
Date de dépôt 2023-09-13
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Bar-Niv, Adam M.

Abrégé

A computing device engages in text-based validation of a user interface (UI) presented on a display of the computing device, including (i) capturing a screenshot of the display when the UI is presented on the display, (ii) transmitting to a server a validation request providing the captured screenshot, and (Hi) receiving from the server, in response to the validation request, a validation response based at least on (a) character recognition of text depicted by the screenshot and (b) a determination of whether the character-recognized text corresponds with an associated action. Further, the computing device uses the received validation response as a basis to control whether to allow the computing device to take the associated action in response to user input into the computing device when the UI is presented on the display.

Classes IPC  ?

  • G06F 21/32 - Authentification de l’utilisateur par données biométriques, p.ex. empreintes digitales, balayages de l’iris ou empreintes vocales
  • G06F 21/52 - Contrôle des usagers, programmes ou dispositifs de préservation de l’intégrité des plates-formes, p.ex. des processeurs, des micrologiciels ou des systèmes d’exploitation au stade de l’exécution du programme, p.ex. intégrité de la pile, débordement de tampon ou prévention d'effacement involontaire de données
  • G06F 21/54 - Contrôle des usagers, programmes ou dispositifs de préservation de l’intégrité des plates-formes, p.ex. des processeurs, des micrologiciels ou des systèmes d’exploitation au stade de l’exécution du programme, p.ex. intégrité de la pile, débordement de tampon ou prévention d'effacement involontaire de données par ajout de routines ou d’objets de sécurité aux programmes
  • G06F 21/53 - Contrôle des usagers, programmes ou dispositifs de préservation de l’intégrité des plates-formes, p.ex. des processeurs, des micrologiciels ou des systèmes d’exploitation au stade de l’exécution du programme, p.ex. intégrité de la pile, débordement de tampon ou prévention d'effacement involontaire de données par exécution dans un environnement restreint, p.ex. "boîte à sable" ou machine virtuelle sécurisée

67.

PROTECTING AGAINST DKIM REPLAY

      
Numéro d'application US2023034239
Numéro de publication 2024/076512
Statut Délivré - en vigueur
Date de dépôt 2023-09-29
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Chuang, Wei-Haw

Abrégé

A method (800) for securing messages includes obtaining, at a first message server (160), a message (152) for a user (12) of a message service hosted by the first message server, the message including a header (310) including a digital signature (330) signed by an author of the message and a list of one or more recipients (312) of the message. The method includes determining that a Domain Name System (DNS) TXT record (720) associated with the message includes a delegation policy (722) indicating that a second message server declared all intended recipients of the message. In response, the method includes determining that the digital signature by the author is valid and that the user is a declared recipient of the message. The method includes, in response to determining that the digital signature is valid and the user is the declared recipient of the message, indicating the message is authentic.

Classes IPC  ?

  • H04L 9/40 - Protocoles réseaux de sécurité
  • H04L 9/32 - Dispositions pour les communications secrètes ou protégées; Protocoles réseaux de sécurité comprenant des moyens pour vérifier l'identité ou l'autorisation d'un utilisateur du système
  • H04L 51/212 - Surveillance ou traitement des messages utilisant un filtrage ou un blocage sélectif
  • H04L 61/4511 - Répertoires de réseau; Correspondance nom-adresse en utilisant des protocoles normalisés d'accès aux répertoires en utilisant le système de noms de domaine [DNS]
  • H04L 51/214 - Surveillance ou traitement des messages en utilisant le transfert sélectif

68.

MACHINE LEARNING MODEL BASED TRIGGERING MECHANISM FOR IMAGE ENHANCEMENT

      
Numéro d'application US2023034434
Numéro de publication 2024/076611
Statut Délivré - en vigueur
Date de dépôt 2023-10-04
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Talebi, Hossein
  • Choi, Sungjoon
  • Milanfar, Peyman
  • Delbracio, Mauricio

Abrégé

A method includes determining a respective delta quality score associated with each of a plurality of images by predicting, by an image enhancement model, an enhanced image corresponding to a given image, determining a first quality score associated with the given image and a second quality score associated with the enhanced image. The delta quality score is based on a difference of the first and second quality scores. The method includes generating a training dataset comprising the plurality of images associated with respective delta quality scores. The method includes training, based on the generated training dataset, a quality assessment model to predict a quality-improvability score associated with an input image. The quality-improvability score is indicative of a potential to increase a perceptual quality of the input image based on removal of one or more image degradation factors. The method includes outputting, by the computing device, the trained quality assessment model.

Classes IPC  ?

69.

IMAGE SALIENCY BASED SMART FRAMING

      
Numéro d'application US2023034539
Numéro de publication 2024/076676
Statut Délivré - en vigueur
Date de dépôt 2023-10-05
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Cang, Ruijin
  • Hong, Wei
  • Hickson, Steven, David

Abrégé

A method includes receiving an image captured by an image capturing device. The method also includes determining a saliency bounding box based on a saliency metric determined for pixels of the image. The method further includes determining one or more face bounding boxes surrounding one or more faces identified within the image. The method additionally includes determining a zoom bounding box based on the saliency bounding box and the one or more face bounding boxes. The method also includes determining a zoom ratio based on the determined zoom bounding box. The method further includes providing a zoomed image for display based on the determined zoom ratio.

Classes IPC  ?

  • G06T 3/40 - Changement d'échelle d'une image entière ou d'une partie d'image
  • H04N 23/69 - Commande de moyens permettant de modifier l'angle du champ de vision, p. ex. des objectifs de zoom optique ou un zoom électronique

70.

CUSTOMIZABLE AUTOMATIONS FOR NETWORK-CONNECTED DEVICES

      
Numéro d'application US2023075872
Numéro de publication 2024/077015
Statut Délivré - en vigueur
Date de dépôt 2023-10-03
Date de publication 2024-04-11
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Harris, Robert Clarke
  • Aleagha, Mohammad
  • Billig, Noel
  • Solomon, Brian Sanford

Abrégé

This document describes systems and techniques directed at customizable automations for network-connected devices. In aspects, a device management system presents a starter input having a trigger menu and a detecting device menu. The device management system receives user input indicative of a selected trigger and a detecting device from one or more of the menus. The device management system also presents an action input having an action menu and an action device menu. The device management system receives user input indicative of a selected action and a selected action device. Based on the selections, the device management system associates the selected trigger with the selected action such that, responsive to the selected trigger being detected by the selected detecting device, the selected action is performed by the selected action device.

Classes IPC  ?

  • H04L 12/28 - Réseaux de données à commutation caractérisés par la configuration des liaisons, p.ex. réseaux locaux [LAN Local Area Networks] ou réseaux étendus [WAN Wide Area Networks]
  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p.ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p.ex. interaction avec des règles ou des cadrans

71.

MANAGING UPLINK TRANSMISSION CHAIN SWITCHING

      
Numéro d'application US2023075655
Numéro de publication 2024/073757
Statut Délivré - en vigueur
Date de dépôt 2023-09-29
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Chou, Kao-Peng
  • Wu, Chih-Hsiang

Abrégé

A method in a user equipment (UE) equipped with a first transmitter and a second transmitter, the method comprising: transmitting a first uplink transmission using the first transmitter switched to a first frequency band and using a second transmitter switched to a second frequency band; and receiving, from a radio access network (RAN), an uplink switching configuration for a second uplink transmission using the first transmitter, the uplink switching configuration including (i) a first parameter to indicate whether to switch the second transmitter away from the second frequency band, and (ii) a second parameter indicating to which frequency band the UE is to switch the second transmitter; transmitting the second uplink transmission in accordance with the uplink switching configuration.

Classes IPC  ?

  • H04L 5/00 - Dispositions destinées à permettre l'usage multiple de la voie de transmission

72.

UE REPORT FOR UPLINK SIMULTANEOUS MULTI-PANEL TRANSMISSION

      
Numéro d'application CN2022123633
Numéro de publication 2024/065838
Statut Délivré - en vigueur
Date de dépôt 2022-09-30
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Wu, Chih-Hsiang

Abrégé

This disclosure provides systems, devices, apparatus, and methods, including computer programs encoded on storage media, for UE reports for STxMP. A UE (102) receives (604), from a network entity (104), control signaling for transmission (616) of a report associated with STxMP. The control signaling indicates at least one of a reporting quantity of uplink beams for the report, one or more downlink reference signals to be measured for the report, prohibit timer information for the transmission (616) of the report, or an uplink resource for the transmission (616) of the report. The UE transmits (616), to the network entity (104) based on a triggering condition, the report in conformance with the control signaling. The report corresponds to at least one of a beam report for STxMP or a panel status update report for STxMP.

Classes IPC  ?

  • H04B 7/0404 - Systèmes de diversité; Systèmes à plusieurs antennes, c. à d. émission ou réception utilisant plusieurs antennes utilisant plusieurs antennes indépendantes espacées la station mobile comprenant plusieurs antennes, p.ex. pour mettre en œuvre une diversité en voie ascendante
  • H04B 7/06 - Systèmes de diversité; Systèmes à plusieurs antennes, c. à d. émission ou réception utilisant plusieurs antennes utilisant plusieurs antennes indépendantes espacées à la station d'émission
  • H04B 7/08 - Systèmes de diversité; Systèmes à plusieurs antennes, c. à d. émission ou réception utilisant plusieurs antennes utilisant plusieurs antennes indépendantes espacées à la station de réception
  • H04L 5/00 - Dispositions destinées à permettre l'usage multiple de la voie de transmission

73.

PHOTOREALISTIC TEXT INPAINTING FOR AUGMENTED REALITY USING GENERATIVE MODELS

      
Numéro d'application IB2023000438
Numéro de publication 2024/069226
Statut Délivré - en vigueur
Date de dépôt 2023-06-22
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Stone, Thomas Jonathan
  • Zholmukhanov, Darkhan
  • Wegner, Dawid Michal

Abrégé

Provided are systems and methods that use generative models (e.g., generative adversarial networks) to enable photorealistic text inpainting in augmented reality. One example application of the proposed systems is to perform augmented reality translation. For example, a user can operate an image capture device (e.g., camera, smartphone, etc.) to capture imagery of a real-world scene that includes real-world text (e.g., signage, restaurant menus, etc.). The real-world text can be translated into a different language. Further, the captured imagery can be processed with a machine-learned generative model to produce an augmented image. The augmented image can depict the real-world scene with the real-world text removed. Specifically, because a machine-learned generative model is used, the augmented image can appear significantly more realistic, for example versus an image in which the real-world text has simply been blocked using a box with a single color.

Classes IPC  ?

  • G06F 40/58 - Utilisation de traduction automatisée, p.ex. pour recherches multilingues, pour fournir aux dispositifs clients une traduction effectuée par le serveur ou pour la traduction en temps réel
  • G06N 3/045 - Combinaisons de réseaux
  • G06T 11/00 - Génération d'images bidimensionnelles [2D]
  • G06V 20/20 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans les scènes de réalité augmentée

74.

LOCATION SHARING INTERACTIVITY

      
Numéro d'application US2022045037
Numéro de publication 2024/072383
Statut Délivré - en vigueur
Date de dépôt 2022-09-28
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Sharifi, Matthew

Abrégé

The technology is generally directed to providing a next suggested action based on a first user's request for location information of a second user and the location information of the second user. Location information may be shared between the first and second user after each user authorizes location sharing with specific users. The second user's location information may be provided to the first user in response to a request for the first user. Based on the request from the first user and the location information of the second user, a next suggested action may be automatically determined and provided to the first or second user. The suggested next action may be for the first user to send a message to the second user, the second user to send a message to the first user or another user, updating a navigation route, providing an update to a scheduled event, etc.

Classes IPC  ?

  • H04W 4/02 - Services utilisant des informations de localisation

75.

PROVIDING INVERTED DIRECTIONS AND OTHER INFORMATION BASED ON A CURRENT OR RECENT JOURNEY

      
Numéro d'application US2022045184
Numéro de publication 2024/072392
Statut Délivré - en vigueur
Date de dépôt 2022-09-29
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Sharifi, Matthew

Abrégé

A computing device may implement a method for providing route information regarding a completed or ongoing trip by a user without the user having previously initiated a navigation session. The method may include receiving a query regarding a previous or ongoing trip by a user prior to the user initiating a navigation session; determining an origin for the previous or ongoing trip; obtaining route information for the previous or ongoing trip; generating one or more route attributes associated with the query based at least on the origin for the previous or ongoing trip and the route information for the previous or ongoing trip; and providing a response to the query based at least on the one or more route attributes.

Classes IPC  ?

  • G01C 21/34 - Recherche d'itinéraire; Guidage en matière d'itinéraire
  • G01C 21/36 - Dispositions d'entrée/sortie pour des calculateurs embarqués

76.

SYSTEM OF MULTIPLE RADAR-ENABLED COMPUTING DEVICES

      
Numéro d'application US2022077414
Numéro de publication 2024/072459
Statut Délivré - en vigueur
Date de dépôt 2022-09-30
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Bedal, Lauren Marie
  • Giusti, Leonardo
  • Oyedeji, Amos
  • Hayashi, Eiji
  • Barclay, Sean
  • Poupyrev, Ivan
  • Yamanaka, Jin

Abrégé

A system of multiple radar-enabled computing devices, along with related techniques, are described in this document. These techniques are employed with this system to coordinate information and operations across multiple radar-enabled computing devices to create a seamless experience. In particular, each computing device of the computing system may have access to stored radar-signal characteristics that enable detection and distinction of users and detection and recognition of gestures. Computing devices may coordinate in-progress operations to provide continuity across multiple devices. When positioned in different locations, each device may also learn over time users, gestures, and versions of gestures associated with that location to anticipate them in the future.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G01S 7/41 - DÉTERMINATION DE LA DIRECTION PAR RADIO; RADIO-NAVIGATION; DÉTERMINATION DE LA DISTANCE OU DE LA VITESSE EN UTILISANT DES ONDES RADIO; LOCALISATION OU DÉTECTION DE LA PRÉSENCE EN UTILISANT LA RÉFLEXION OU LA RERADIATION D'ONDES RADIO; DISPOSITIONS ANALOGUES UTILISANT D'AUTRES ONDES - Détails des systèmes correspondant aux groupes , , de systèmes selon le groupe utilisant l'analyse du signal d'écho pour la caractérisation de la cible; Signature de cible; Surface équivalente de cible
  • G01S 13/06 - Systèmes déterminant les données relatives à la position d'une cible
  • G01S 13/42 - Mesure simultanée de la distance et d'autres coordonnées
  • G01S 13/88 - Radar ou systèmes analogues, spécialement adaptés pour des applications spécifiques
  • G06F 3/16 - Entrée acoustique; Sortie acoustique
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

77.

AMBIGUOUS GESTURE DETERMINATION USING CONTEXTUAL INFORMATION

      
Numéro d'application US2022077428
Numéro de publication 2024/072461
Statut Délivré - en vigueur
Date de dépôt 2022-09-30
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Felch, Andrew C.
  • Hayashi, Eiji
  • Walker, Will R.
  • Matsui, Hideaki
  • Bedal, Lauren Marie
  • Giusti, Leonardo

Abrégé

Techniques and devices for ambiguous gesture determination using contextual information are described in this document for radar-enabled computing devices. Contextual information may include a status of operations that are performed by the radar-enabled computing device or an associated device at a current time, past time, or future time. Contextual information may also or instead include foreground and background operations, a history of operations saved to a memory, scheduled or anticipated operations, a location of a user or device, room-related context, user habits, and so forth. Two or more computing devices may coordinate this contextual information across a communication network to form a computing system.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G01S 7/41 - DÉTERMINATION DE LA DIRECTION PAR RADIO; RADIO-NAVIGATION; DÉTERMINATION DE LA DISTANCE OU DE LA VITESSE EN UTILISANT DES ONDES RADIO; LOCALISATION OU DÉTECTION DE LA PRÉSENCE EN UTILISANT LA RÉFLEXION OU LA RERADIATION D'ONDES RADIO; DISPOSITIONS ANALOGUES UTILISANT D'AUTRES ONDES - Détails des systèmes correspondant aux groupes , , de systèmes selon le groupe utilisant l'analyse du signal d'écho pour la caractérisation de la cible; Signature de cible; Surface équivalente de cible
  • G01S 13/06 - Systèmes déterminant les données relatives à la position d'une cible
  • G01S 13/42 - Mesure simultanée de la distance et d'autres coordonnées
  • G01S 13/88 - Radar ou systèmes analogues, spécialement adaptés pour des applications spécifiques
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

78.

RADAR-BASED GESTURE DETERMINATION AT LONG RANGES

      
Numéro d'application US2022077433
Numéro de publication 2024/072463
Statut Délivré - en vigueur
Date de dépôt 2022-09-30
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Hayashi, Eiji
  • Wang, Zhuo
  • Felch, Andrew C.
  • Yamanaka, Jin
  • Jacquot, Blake Charles
  • Poupyrev, Ivan
  • Giusti, Leonardo
  • Walker, Will R.
  • Matsui, Hideaki
  • Bedal, Lauren Marie
  • Au, Lawrence
  • Lien, Jaime

Abrégé

Techniques and devices for radar-based gesture determination at long ranges are described in this document. The techniques described herein enable a computing device to detect and recognize gestures at long-range extents of up to eight meters. The computing device of this disclosure does not require the user to perform a gestural command at a specific location, in a specific orientation, contingent upon a wake-up trigger, or at a specific time, enabling the user to freely provide commands whenever and wherever is most convenient. This continual recognition of gestures may be enabled by a machine-learned model, generation of augmented data, and inclusion of negative data.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G01S 7/41 - DÉTERMINATION DE LA DIRECTION PAR RADIO; RADIO-NAVIGATION; DÉTERMINATION DE LA DISTANCE OU DE LA VITESSE EN UTILISANT DES ONDES RADIO; LOCALISATION OU DÉTECTION DE LA PRÉSENCE EN UTILISANT LA RÉFLEXION OU LA RERADIATION D'ONDES RADIO; DISPOSITIONS ANALOGUES UTILISANT D'AUTRES ONDES - Détails des systèmes correspondant aux groupes , , de systèmes selon le groupe utilisant l'analyse du signal d'écho pour la caractérisation de la cible; Signature de cible; Surface équivalente de cible
  • G01S 13/88 - Radar ou systèmes analogues, spécialement adaptés pour des applications spécifiques
  • G01S 13/50 - Systèmes de mesure basés sur le mouvement relatif à la cible
  • G06N 3/08 - Méthodes d'apprentissage

79.

SENSOR CAPABILITY DETERMINATION FOR RADAR-BASED COMPUTING DEVICES

      
Numéro d'application US2022077435
Numéro de publication 2024/072464
Statut Délivré - en vigueur
Date de dépôt 2022-09-30
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Walker, Will R.
  • Matsui, Hideaki
  • Bedal, Lauren Marie
  • Franchi, Nick Anthony
  • Gillian, Nicholas Edward
  • Lu, Mei
  • Au, Lawrence

Abrégé

This document describes techniques, apparatuses, and systems for sensor capability determination for radar-based computing devices. Through these techniques, gesture-determination devices may be configured with one or more primary sensors to improve a quality of gesture determination. Specifically, capabilities of first and second sensors to sense, and therefore sensed data to be used to detect or recognize a gesture may be determined based on contextual information associated with a region in which the gesture is performed. These capabilities may be compared to determine that the first sensor is more capable. As a result, a device utilizing the first and second sensors to enable gesture determination may be configured such that the first sensor is a primary sensor to be used preferentially over the second sensor to sense the gesture at a current or future time. In doing so, gesture recognition accuracy may be increased in various environments.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G01S 7/41 - DÉTERMINATION DE LA DIRECTION PAR RADIO; RADIO-NAVIGATION; DÉTERMINATION DE LA DISTANCE OU DE LA VITESSE EN UTILISANT DES ONDES RADIO; LOCALISATION OU DÉTECTION DE LA PRÉSENCE EN UTILISANT LA RÉFLEXION OU LA RERADIATION D'ONDES RADIO; DISPOSITIONS ANALOGUES UTILISANT D'AUTRES ONDES - Détails des systèmes correspondant aux groupes , , de systèmes selon le groupe utilisant l'analyse du signal d'écho pour la caractérisation de la cible; Signature de cible; Surface équivalente de cible
  • G01S 13/06 - Systèmes déterminant les données relatives à la position d'une cible
  • G01S 13/42 - Mesure simultanée de la distance et d'autres coordonnées
  • G01S 13/88 - Radar ou systèmes analogues, spécialement adaptés pour des applications spécifiques
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

80.

DETERMINATION OF A LESS-DESTRUCTIVE COMMAND

      
Numéro d'application US2022077439
Numéro de publication 2024/072466
Statut Délivré - en vigueur
Date de dépôt 2022-09-30
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Hayashi, Eiji
  • Bedal, Lauren Marie
  • Giusti, Leonardo
  • Barbello, Brandon Charles
  • Poupyrev, Ivan

Abrégé

This document describes techniques, apparatuses, and systems for the determination of a less-destructive command. A computing device may detect an ambiguous gesture performed by a user and compare a radar-signal characteristic of the ambiguous gesture to one or more stored radar-signal characteristics to correlate the ambiguous gesture to a first gesture and a second gesture. The first gesture and the second gesture may cause the computing device to perform a first command and a second command, respectively. The computing device may determine a less-destructive command of the first and second command and perform an operation associated with the less-destructive command. In doing so, a device performing radar-based gesture detection may reduce the consequences of inaccurate gesture recognition, thereby improving user satisfaction.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G01S 7/41 - DÉTERMINATION DE LA DIRECTION PAR RADIO; RADIO-NAVIGATION; DÉTERMINATION DE LA DISTANCE OU DE LA VITESSE EN UTILISANT DES ONDES RADIO; LOCALISATION OU DÉTECTION DE LA PRÉSENCE EN UTILISANT LA RÉFLEXION OU LA RERADIATION D'ONDES RADIO; DISPOSITIONS ANALOGUES UTILISANT D'AUTRES ONDES - Détails des systèmes correspondant aux groupes , , de systèmes selon le groupe utilisant l'analyse du signal d'écho pour la caractérisation de la cible; Signature de cible; Surface équivalente de cible
  • G01S 13/06 - Systèmes déterminant les données relatives à la position d'une cible

81.

DETECTING USER ENGAGEMENT

      
Numéro d'application US2022077441
Numéro de publication 2024/072467
Statut Délivré - en vigueur
Date de dépôt 2022-09-30
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Bedal, Lauren Marie
  • Giusti, Leonardo
  • Oyedeji, Amos
  • Hayashi, Eiji
  • Yamanaka, Jin
  • Poupyrev, Ivan

Abrégé

This document describes techniques, apparatuses, and systems for determining user engagement. For example, a computing device may determine a current proximity, a projected proximity, or a body orientation of a user relative to an interaction device associated with the computing device. Using one or more of these determinations, the techniques estimate an engagement or projected engagement of the user with the interaction device. With this estimate, the techniques alter a setting of the interaction device to better interact with the user.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G01S 7/41 - DÉTERMINATION DE LA DIRECTION PAR RADIO; RADIO-NAVIGATION; DÉTERMINATION DE LA DISTANCE OU DE LA VITESSE EN UTILISANT DES ONDES RADIO; LOCALISATION OU DÉTECTION DE LA PRÉSENCE EN UTILISANT LA RÉFLEXION OU LA RERADIATION D'ONDES RADIO; DISPOSITIONS ANALOGUES UTILISANT D'AUTRES ONDES - Détails des systèmes correspondant aux groupes , , de systèmes selon le groupe utilisant l'analyse du signal d'écho pour la caractérisation de la cible; Signature de cible; Surface équivalente de cible
  • G01S 13/06 - Systèmes déterminant les données relatives à la position d'une cible
  • G01S 13/42 - Mesure simultanée de la distance et d'autres coordonnées
  • G01S 13/88 - Radar ou systèmes analogues, spécialement adaptés pour des applications spécifiques
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

82.

IN-LINE LEARNING OF NEW GESTURES FOR RADAR-ENABLED COMPUTING DEVICES

      
Numéro d'application US2022077442
Numéro de publication 2024/072468
Statut Délivré - en vigueur
Date de dépôt 2022-09-30
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Giusti, Leonardo
  • Lu, Mei
  • Au, Lawrence
  • Gillian, Nicholas Edward
  • Lien, Jaime
  • Poupyrev, Ivan

Abrégé

Techniques, apparatuses, and systems for in-line learning of new gestures for radar-enabled computing devices are described in this document. A computing system may store radar-signal characteristics of a new gesture to enable the computing system to recognize a new gesture and perform a command associated with the new gesture. Specifically, a radar system may detect a gesture performed by a user and fail to correlate that gesture to one or more known gestures. The computing system may receive a new command proximate to detecting the gesture and determine that the detected gesture is a new gesture associated with the new command. As such, the computing system may store a radar-signal characteristic of the new gesture effective to recognize a performance of the gesture in the future and respond by performing the command. In doing so, the computing system may periodically learn new gestures without requiring dedicated training from the user.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G01S 7/41 - DÉTERMINATION DE LA DIRECTION PAR RADIO; RADIO-NAVIGATION; DÉTERMINATION DE LA DISTANCE OU DE LA VITESSE EN UTILISANT DES ONDES RADIO; LOCALISATION OU DÉTECTION DE LA PRÉSENCE EN UTILISANT LA RÉFLEXION OU LA RERADIATION D'ONDES RADIO; DISPOSITIONS ANALOGUES UTILISANT D'AUTRES ONDES - Détails des systèmes correspondant aux groupes , , de systèmes selon le groupe utilisant l'analyse du signal d'écho pour la caractérisation de la cible; Signature de cible; Surface équivalente de cible
  • G01S 13/06 - Systèmes déterminant les données relatives à la position d'une cible
  • G01S 13/42 - Mesure simultanée de la distance et d'autres coordonnées
  • G01S 13/88 - Radar ou systèmes analogues, spécialement adaptés pour des applications spécifiques
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

83.

PRESENTING RELATED CONTENT WHILE BROWSING AND SEARCHING CONTENT

      
Numéro d'application US2023031031
Numéro de publication 2024/072585
Statut Délivré - en vigueur
Date de dépôt 2023-08-24
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Jalasutram, Srikanth
  • Lua, Jia Sin
  • Kawamoto, Damon Chizuru
  • Shaffer, Jeffrey Allen
  • Contreras, Jacob Francis
  • Clarke, Maurice Kenji
  • Henbest, Ryan Michael
  • Wang, Chengcheng

Abrégé

Systems and methods for presenting an interface for additional content suggestion can include obtaining data descriptive of the displayed content and determining additional content associated with the displayed content. An interface can then be provided that displays data associated with the displayed content and the additional content. The interface can include a first viewing window for displaying a portion of the displayed content and a second viewing window for displaying a snippet associated with the additional content.

Classes IPC  ?

  • G06F 16/957 - Optimisation de la navigation, p.ex. mise en cache ou distillation de contenus

84.

RETRIEVAL AUGMENTED TEXT-TO-IMAGE GENERATION

      
Numéro d'application US2023033622
Numéro de publication 2024/072749
Statut Délivré - en vigueur
Date de dépôt 2023-09-25
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Cohen, William, W.
  • Saharia, Chitwan
  • Hu, Hexiang
  • Chen, Wenhu

Abrégé

Methods, systems, and apparatus, including computer programs encoded on computer storage media, for generating an output image using a text-to-image model and conditioned on both the input text and image and text pairs selected from a multi-modal knowledge base. In one aspect, a method includes, at each of multiple time steps: generating a first feature map for the time step; selecting one or more neighbor image and text pairs based on their similarities to the input text; for each of the one or more neighbor images and text pairs, generating a second feature map for the neighbor image and text pair; applying an attention mechanism over the one or more second feature maps to generate an attended feature map; and generating an updated intermediate representation of the output image for the time step.

Classes IPC  ?

  • G06F 16/783 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
  • G06N 3/045 - Combinaisons de réseaux

85.

CRAWL ALGORITHM

      
Numéro d'application US2023033641
Numéro de publication 2024/072759
Statut Délivré - en vigueur
Date de dépôt 2023-09-25
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Qiu, Linhai
  • Busa-Fekete, Robert Istvan
  • Zimmert, Julian Ulf
  • Gyorgy, Andras
  • Shen, Hao
  • Choi, Hyomin
  • Vijay, Sharmila
  • Xiao, Li

Abrégé

A method (300) for a crawl algorithm includes obtaining a plurality of web pages (152) for a web crawler (160) to crawl. The method also includes determining an available bandwidth (155) for the web crawler. The method includes, for each respective web page of the plurality of web pages, determining a respective crawl value (153) for the respective web page based on the available bandwidth and determining that the respective crawl value of the respective web page satisfies a threshold value (162). The method includes, in response to determining that the respective crawl value of the respective web page satisfies the threshold value, updating the respective web page in a cache memory (150).

Classes IPC  ?

  • G06F 16/951 - Indexation; Techniques d’exploration du Web

86.

REMOVING DISTORTION FROM REAL-TIME VIDEO USING A MASKED FRAME

      
Numéro d'application US2023033762
Numéro de publication 2024/072835
Statut Délivré - en vigueur
Date de dépôt 2023-09-26
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Chen, Hsueh-Ping
  • Shi, Fuhao
  • Tsai, Sung-Fang
  • Huang, Po-Hao
  • Hsu, Po-Ya

Abrégé

This document describes systems and techniques for removing distortion from real-time video using a masked frame. In aspects, an image-capture device having a video-processing manager is configured to capture a video segment comprising a sequence of frames. The sequence of frames includes at least a current frame having a foreground and a background. The video-processing manager receives a subject mask, motion vectors, and a predicted mask for the current frame. The video-processing manager generates a final mask for the current frame based on the subject mask, motion vectors, and predicted mask. The video-processing manager applies the final mask to the current frame to segment the foreground from the background and provide a masked frame. The video-processing manager edits the masked frame to remove distortion to generate an output frame and outputs the output frame. By repeating the method described for each frame in the sequence of frames, the video-processing manager provides an improved video segment.

Classes IPC  ?

  • G06T 5/70 - Débruitage; Lissage
  • G06T 5/73 - Élimination des flous; Accentuation de la netteté
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/194 - Découpage; Détection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/215 - Découpage basé sur le mouvement
  • G06T 5/50 - Amélioration ou restauration d'image en utilisant plusieurs images, p.ex. moyenne, soustraction

87.

KOOPMAN NEURAL FORECASTER FOR TIME SERIES WITH TEMPORAL DISTRIBUTION SHIFTS

      
Numéro d'application US2023033785
Numéro de publication 2024/072842
Statut Délivré - en vigueur
Date de dépôt 2023-09-27
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Arik, Sercan, Omer
  • Dong, Yihe
  • Yu, Qi
  • Wang, Rui

Abrégé

Aspects of the disclosure provide a deep sequence model, referred to as Koopman Neural Forecaster (KNF), for time series forecasting. KNF leverages deep neural networks (DNNs) to learn the linear Koopman space and the coefficients of chosen measurement functions. KNF imposes appropriate inductive biases for improved robustness against distributional shifts, employing both a global operator to learn shared characteristics, and a local operator to capture changing dynamics, as well as a specially-designed feedback loop to continuously update the learnt operators over time for rapidly varying behaviors. KNF achieves superior performance on multiple time series datasets that are shown to suffer from distribution shifts.

Classes IPC  ?

  • G06N 3/0455 - Réseaux auto-encodeurs; Réseaux encodeurs-décodeurs
  • G06N 3/0499 - Réseaux à propagation avant

88.

LEARNING THE JOINT DISTRIBUTION OF TWO SEQUENCES USING LITTLE OR NO PAIRED DATA

      
Numéro d'application US2023033841
Numéro de publication 2024/072877
Statut Délivré - en vigueur
Date de dépôt 2023-09-27
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Mariooryad, Soroosh
  • Shannon, Sean Matthew
  • Bagby, Thomas Edward
  • Ma, Siyuan
  • Kao, David Teh-Hwa
  • Stanton, Daisy Antonia
  • Battenberg, Eric Dean
  • Skerry-Ryan, Russell John Wyatt

Abrégé

Provided is a noisy channel generative model of two sequences, for example text and speech, which enables uncovering the associations between the two modalities when limited paired data is available. To address the intractability of the exact model under a realistic data set-up, example aspects of the present disclosure include a variational inference approximation. To train this variational model with categorical data, a KL encoder loss approach is proposed which has connections to the wake-sleep algorithm.

Classes IPC  ?

  • G06N 3/0475 - Réseaux génératifs
  • G06N 3/0455 - Réseaux auto-encodeurs; Réseaux encodeurs-décodeurs
  • G06N 3/047 - Réseaux probabilistes ou stochastiques
  • G06N 3/088 - Apprentissage non supervisé, p.ex. apprentissage compétitif
  • G10L 13/08 - Analyse de texte ou génération de paramètres pour la synthèse de la parole à partir de texte, p.ex. conversion graphème-phonème, génération de prosodie ou détermination de l'intonation ou de l'accent tonique
  • G10L 15/16 - Classement ou recherche de la parole utilisant des réseaux neuronaux artificiels

89.

MANAGING PDCP OPERATION IN A SERVING CELL CHANGE SCENARIO

      
Numéro d'application US2023034097
Numéro de publication 2024/073036
Statut Délivré - en vigueur
Date de dépôt 2023-09-29
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Wu, Chih-Hsiang

Abrégé

A node of a radio access network (RAN) transmits, to a user equipment (UE) communicating with the RAN in a first cell and using a radio bearer, a message including a configuration for performing a serving cell change to a second cell subsequent to an activation command, including refraining from including a Packet Data Convergence Protocol (PDCP) reestablishment indication in the message; and transmits, to the UE and subsequent to the transmitting of the message including the configuration, an activation command for performing the serving cell change to the second cell in accordance with the configuration and without reestablishing a PDCP entity of the UE for the radio bearer.

Classes IPC  ?

  • H04W 36/00 - Dispositions pour le transfert ou la resélection
  • H04W 36/08 - Resélection d'un point d'accès
  • H04W 76/19 - Rétablissement de connexion

90.

MANAGING COMMUNICATION FAILURES IN A DISAGGREGATED BASE STATION

      
Numéro d'application US2023034105
Numéro de publication 2024/073039
Statut Délivré - en vigueur
Date de dépôt 2023-09-29
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Wu, Chih-Hsiang

Abrégé

A node in a RAN transmits (1007) to a user equipment UE in a first cell, a message including a configuration for performing a serving cell change to a second cell subsequent to an activation command; determines (1008), subsequent to the transmitting and while the UE awaits the activation command, a communication failure between the UE and the RAN; and in response to the determining, releases (1011, 1013) the configuration.

Classes IPC  ?

  • H04W 76/18 - Gestion du rejet ou de l'échec de l'établissement
  • H04W 76/19 - Rétablissement de connexion

91.

ADAPTIVE CONTENT DISTRIBUTION USING PRIVATE ENCODED AUDIO IDENTIFIERS

      
Numéro d'application US2022045320
Numéro de publication 2024/072404
Statut Délivré - en vigueur
Date de dépôt 2022-09-30
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Madhavapeddi, Shreedhar
  • Mathur, Shreya

Abrégé

Methods, systems, and apparatus, including medium-encoded computer program products, for adaptive content distribution using private encoded audio identifiers are described. The techniques can include receiving event data that indicates that a digital component with an audio signature was transmitted to a display device. The event data can also include a time at which the digital component was transmitted. A content request can be received from a different client device and can include data representative of a captured audio signature and the time at which the audio signature was captured. In response to determining that the content request is requesting content related to the digital component based at least on (i) a determination that the audio signature matches the audio signature of the digital component and (ii) a determination that the time are within a threshold duration, the content related to the digital component can be sent to the client device.

Classes IPC  ?

  • H04N 21/2389 - Traitement de flux multiplexé, p.ex. cryptage de flux multiplexé
  • H04N 21/439 - Traitement de flux audio élémentaires
  • G10L 19/018 - Mise en place d’un filigrane audio, c. à d. insertion de données inaudibles dans le signal audio
  • H04N 21/258 - Gestion de données liées aux clients ou aux utilisateurs finaux, p.ex. gestion des capacités des clients, préférences ou données démographiques des utilisateurs, traitement des multiples préférences des utilisateurs finaux pour générer des données co
  • H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p.ex. apprentissage des préféren
  • H04N 21/8547 - Création de contenu impliquant des marquages temporels pour synchroniser le contenu
  • H04N 21/41 - Structure de client; Structure de périphérique de client
  • H04N 21/4722 - Interface pour utilisateurs finaux pour la requête de contenu, de données additionnelles ou de services; Interface pour utilisateurs finaux pour l'interaction avec le contenu, p.ex. pour la réservation de contenu ou la mise en place de rappels, pour la requête de notification d'événement ou pour la transformation de contenus affichés pour la requête de données additionnelles associées au contenu
  • H04N 21/442 - Surveillance de procédés ou de ressources, p.ex. détection de la défaillance d'un dispositif d'enregistrement, surveillance de la bande passante sur la voie descendante, du nombre de visualisations d'un film, de l'espace de stockage disponible dans l
  • H04N 21/422 - Périphériques d'entrée uniquement, p.ex. système de positionnement global [GPS]

92.

MOTION VECTOR CANDIDATE SIGNALING

      
Numéro d'application US2022053156
Numéro de publication 2024/072438
Statut Délivré - en vigueur
Date de dépôt 2022-12-16
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Li, Xiang
  • Xu, Yaowu
  • Han, Jingning

Abrégé

An index of a motion vector candidate of a list of motion vector candidates is decoded from a compressed bitstream. A subset of motion vector candidates to generate is determined based on the index. The subset of motion vector candidates is then generated. The subset of motion vector candidates is a proper subset of the list of motion vector candidates. That is, fewer than all of the motion vector candidates of the list of motion vector candidates are generated. The motion vector candidate is selected from the subset of motion vector candidates based on the index. A current block is decoded using the motion vector candidate.

Classes IPC  ?

  • H04N 19/52 - Traitement de vecteurs de mouvement par encodage par encodage prédictif

93.

USER DISTINCTION FOR RADAR-BASED GESTURE DETECTORS

      
Numéro d'application US2022077388
Numéro de publication 2024/072458
Statut Délivré - en vigueur
Date de dépôt 2022-09-30
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Matsui, Hideaki
  • Walker, Will R.
  • Hayashi, Eiji
  • Lien, Jaime
  • Giusti, Leonardo
  • Poupyrev, Ivan

Abrégé

Techniques and devices for user distinction for radar-based gesture detectors are described in this document. These techniques enable a computing device to distinguish users using a radar system that may collect and analyze radar characteristics of a user to distinguish that user from other users. The radar characteristics may include radar-reflection features of the user such as topological, temporal, gestural, and/or contextual information. A user may be distinguished without determining personally identifiable information, and the computing device may record radar characteristics to distinguish each user at a later time and provide tailored experiences. When an unregistered person is detected, the radar system may assign the unregistered person an unregistered user identification that contains detected radar characteristics to distinguish this person from other users at a future time.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G01S 7/41 - DÉTERMINATION DE LA DIRECTION PAR RADIO; RADIO-NAVIGATION; DÉTERMINATION DE LA DISTANCE OU DE LA VITESSE EN UTILISANT DES ONDES RADIO; LOCALISATION OU DÉTECTION DE LA PRÉSENCE EN UTILISANT LA RÉFLEXION OU LA RERADIATION D'ONDES RADIO; DISPOSITIONS ANALOGUES UTILISANT D'AUTRES ONDES - Détails des systèmes correspondant aux groupes , , de systèmes selon le groupe utilisant l'analyse du signal d'écho pour la caractérisation de la cible; Signature de cible; Surface équivalente de cible
  • G01S 13/06 - Systèmes déterminant les données relatives à la position d'une cible
  • G01S 13/42 - Mesure simultanée de la distance et d'autres coordonnées
  • G01S 13/88 - Radar ou systèmes analogues, spécialement adaptés pour des applications spécifiques
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

94.

CONTINUAL IN-LINE LEARNING FOR RADAR-BASED GESTURE RECOGNITION

      
Numéro d'application US2022077430
Numéro de publication 2024/072462
Statut Délivré - en vigueur
Date de dépôt 2022-09-30
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Giusti, Leonardo
  • Gillian, Nicholas Edward

Abrégé

Techniques and devices for continual in-line learning for radar-based gesture recognition are described in this document. Through continual in-line learning, a computing device may improve recognition of even the hardest-to-recognize gestures by gradually storing characteristics of ambiguous gestures performed by a user. Specifically, a radar system may detect a first ambiguous gesture that the computing device fails to recognize as a known gesture and a second gesture that the computing device successfully recognizes as the known gesture. The computing device may identify a similarity between the first and the second gesture, and in doing so, store a characteristic of the first gesture to recognize the known gesture more-accurately in a future occurrence.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G01S 7/41 - DÉTERMINATION DE LA DIRECTION PAR RADIO; RADIO-NAVIGATION; DÉTERMINATION DE LA DISTANCE OU DE LA VITESSE EN UTILISANT DES ONDES RADIO; LOCALISATION OU DÉTECTION DE LA PRÉSENCE EN UTILISANT LA RÉFLEXION OU LA RERADIATION D'ONDES RADIO; DISPOSITIONS ANALOGUES UTILISANT D'AUTRES ONDES - Détails des systèmes correspondant aux groupes , , de systèmes selon le groupe utilisant l'analyse du signal d'écho pour la caractérisation de la cible; Signature de cible; Surface équivalente de cible
  • G01S 13/06 - Systèmes déterminant les données relatives à la position d'une cible
  • G01S 13/42 - Mesure simultanée de la distance et d'autres coordonnées
  • G01S 13/88 - Radar ou systèmes analogues, spécialement adaptés pour des applications spécifiques
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

95.

IN-LINE LEARNING BASED ON USER INPUTS

      
Numéro d'application US2022077437
Numéro de publication 2024/072465
Statut Délivré - en vigueur
Date de dépôt 2022-09-30
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Walker, Will R.
  • Matsui, Hideaki
  • Bedal, Lauren Marie
  • Hayashi, Eiji
  • Giusti, Leonardo
  • Gillian, Nicholas Edward

Abrégé

This document describes techniques and devices for in-line learning based on user inputs. Through in-line learning, a computing device may store characteristics of ambiguous gestures based on subsequent commands from a user. For example, the ambiguous gesture may be associated to one or more known gestures, but the ambiguous gesture cannot be recognized as one of the known gestures with sufficient confidence for gesture recognition. When the computing device fails to recognize the ambiguous gesture, the user may perform or request the performance of a command. This command may be determined to be a first command associated with a first gesture of the known gestures with which the ambiguous gesture was associated. As such, the computing device may store a characteristic of the ambiguous gesture with the first gesture to improve recognition of the first gesture in the future.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G01S 7/41 - DÉTERMINATION DE LA DIRECTION PAR RADIO; RADIO-NAVIGATION; DÉTERMINATION DE LA DISTANCE OU DE LA VITESSE EN UTILISANT DES ONDES RADIO; LOCALISATION OU DÉTECTION DE LA PRÉSENCE EN UTILISANT LA RÉFLEXION OU LA RERADIATION D'ONDES RADIO; DISPOSITIONS ANALOGUES UTILISANT D'AUTRES ONDES - Détails des systèmes correspondant aux groupes , , de systèmes selon le groupe utilisant l'analyse du signal d'écho pour la caractérisation de la cible; Signature de cible; Surface équivalente de cible
  • G01S 13/06 - Systèmes déterminant les données relatives à la position d'une cible
  • G01S 13/42 - Mesure simultanée de la distance et d'autres coordonnées
  • G01S 13/88 - Radar ou systèmes analogues, spécialement adaptés pour des applications spécifiques
  • G06V 40/20 - Mouvements ou comportement, p.ex. reconnaissance des gestes

96.

SMOOTH CONTINUOUS ZOOMING IN A MULTI-CAMERA SYSTEM BY IMAGE-BASED VISUAL FEATURES AND OPTIMIZED GEOMETRIC CALIBRATIONS

      
Numéro d'application US2023033577
Numéro de publication 2024/072722
Statut Délivré - en vigueur
Date de dépôt 2023-09-25
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Yi, Chucai
  • Wang, Youyou
  • Cheng, Hua
  • Liang, Chia-Kai
  • Shi, Fuhao

Abrégé

An example method includes displaying an initial preview of a scene being captured by a first camera operating within a first range of focal lengths. The method includes detecting a zoom operation predicted to cause the first camera to reach a limit of the first range. The method includes activating a second camera, operating within a second range of focal lengths, to capture a zoomed preview of the scene. The method includes updating a geometry-based warping transformation based on a comparison of respective image features from the initial preview and the zoomed preview. The method includes aligning the zoomed preview with the initial preview by applying the updated warping transformation. The method includes displaying the aligned zoomed preview of the image captured by the second camera while operating within the second range.

Classes IPC  ?

  • H04N 23/63 - Commande des caméras ou des modules de caméras en utilisant des viseurs électroniques
  • H04N 23/45 - Caméras ou modules de caméras comprenant des capteurs d'images électroniques; Leur commande pour générer des signaux d'image à partir de plusieurs capteurs d'image de type différent ou fonctionnant dans des modes différents, p. ex. avec un capteur CMOS pour les images en mouvement en combinaison avec un dispositif à couplage de charge [CCD]
  • H04N 23/667 - Changement de mode de fonctionnement de la caméra, p. ex. entre les modes photo et vidéo, sport et normal ou haute et basse résolutions
  • H04N 23/69 - Commande de moyens permettant de modifier l'angle du champ de vision, p. ex. des objectifs de zoom optique ou un zoom électronique

97.

METHODS AND DEVICES FOR HANDLING INTER-FREQUENCY MEASUREMENTS ON NEIGHBORING NTN CELLS

      
Numéro d'application US2023033813
Numéro de publication 2024/072855
Statut Délivré - en vigueur
Date de dépôt 2023-09-27
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Tao, Ming-Hung
  • Wu, Chih-Hsiang

Abrégé

A user equipment (102) is configured to conduct (1218A, 1318) an intra-frequency measurement on a candidate frequency of a non-terrestrial network (NTN) cell even when the UE does not receive information about measurement timing within a candidate frequency configuration or pertinent satellite ephemeris information via a neighbor NTN cell configuration. The UE (102) operates based on the assumption that a base station (104) preparing lists of frequency configurations and neighbor NTN cell configurations has reduced redundant information (e.g., when the same satellite provides plural non-terrestrial cells). The base station (104) is configured to prepare (1501, 1503, 1505, 1605) and broadcast (1508, 1510, 1608, 1610) such reduced lists of frequency configurations and neighboring NTN cell configurations providing information for the intra-frequency measurements.

Classes IPC  ?

  • H04W 48/12 - Distribution d'informations relatives aux restrictions d'accès ou aux accès, p.ex. distribution de données d'exploration utilisant un canal de commande descendant
  • H04W 48/16 - Exploration; Traitement d'informations sur les restrictions d'accès ou les accès
  • H04W 24/10 - Planification des comptes-rendus de mesures
  • H04W 36/08 - Resélection d'un point d'accès
  • H04W 84/06 - Réseaux aériens ou satellitaires

98.

SCALABLE FEATURE SELECTION VIA SPARSE LEARNABLE MASKS

      
Numéro d'application US2023033924
Numéro de publication 2024/072924
Statut Délivré - en vigueur
Date de dépôt 2023-09-28
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Arik, Sercan, Omer
  • Dong, Yihe

Abrégé

Aspects of the disclosure are directed to a canonical approach for feature selection referred to as sparse learnable masks (SLM). SLM integrates learnable sparse masks into end-to-end training. For the fundamental non-differentiability challenge of selecting a desired number of features, SLM includes dual mechanisms for automatic mask scaling by achieving a desired feature sparsity and gradually tempering this sparsity for effective learning. SLM further employs an objective that increases mutual information (MI) between selected features and labels in an efficient and scalable manner. Empirically, SLM can achieve or improve upon state-of-the-art results on several benchmark datasets, often by a significant margin, while reducing computational complexity and cost.

Classes IPC  ?

  • G06N 3/0495 - Réseaux quantifiés; Réseaux parcimonieux; Réseaux compressés
  • G06N 3/088 - Apprentissage non supervisé, p.ex. apprentissage compétitif
  • G06N 3/09 - Apprentissage supervisé

99.

SELECTING A DEVICE TO RESPOND TO DEVICE-AGNOSTIC USER REQUESTS

      
Numéro d'application US2023034027
Numéro de publication 2024/072994
Statut Délivré - en vigueur
Date de dépôt 2023-09-28
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s) Shin, Dongeek

Abrégé

Implementations relate to selecting a particular device, from an ecosystem of devices, to provide responses to a device-agnostic request of the user while a scenario is occurring. The user specifies a scenario and contextual features are identified from one or more devices of the ecosystem to generate scenario features indicative of the scenario occurring. The scenario features are stored with a correlation to a device that is specified by the user to handle responses while the scenario is occurring. When a subsequent device-agnostic request is received, current contextual features are identified and compared to the scenario features. Based on the comparison, the specified assistant device is selected to respond to the device-agnostic request.

Classes IPC  ?

  • G06F 3/16 - Entrée acoustique; Sortie acoustique

100.

VARIABLE LENGTH VIDEO GENERATION FROM TEXTUAL DESCRIPTIONS

      
Numéro d'application US2023034037
Numéro de publication 2024/072999
Statut Délivré - en vigueur
Date de dépôt 2023-09-28
Date de publication 2024-04-04
Propriétaire GOOGLE LLC (USA)
Inventeur(s)
  • Babaeizadeh, Mohammad
  • Villegas, Ruben Eduardo
  • Zhang, Han
  • Kindermans, Pieter-Jan
  • Moraldo, Horacio Hernan
  • Saffar, Mohammad Taghi
  • Erhan, Dumitru

Abrégé

Methods, systems, and apparatus, including computer programs encoded on a computer storage medium, for generating a video. In one aspect, a method comprises receiving a first text prompt, using a video generation neural network to generate an initial segment of the video conditioned on the first text prompt, and updating the video for each of one or more update iterations by obtaining an additional text prompt for each update iteration and by using the video generation neural network to generate an additional segment of the video conditioned on the text prompt for the update iteration.

Classes IPC  ?

  1     2     3     ...     61        Prochaine page