Methods and systems for determining if end-users are expected to be receiving transmissions from a multimedia network at a particular time. Data including end-user type, a multimedia network, a particular time slot of the repeating cycles, and a network reach descriptor may be received. End-users may be identified by end-user type. For each end-user, a probability of receiving transmissions from the multimedia network during time slots prior to the particular time slot may be determined, based on previous viewing activities. Each probability may be adjusted by an offset such that an average of the adjusted probabilities corresponds to the network reach descriptor. A determination may be made of whether or not each end-user is expected to have been receiving transmissions from the multimedia network at the particular time slot, based on the adjusted respective probability.
H04N 21/262 - Ordonnancement de la distribution de contenus ou de données additionnelles, p.ex. envoi de données additionnelles en dehors des périodes de pointe, mise à jour de modules de logiciel, calcul de la fréquence de transmission de carrousel, retardement d
H04N 21/25 - Opérations de gestion réalisées par le serveur pour faciliter la distribution de contenu ou administrer des données liées aux utilisateurs finaux ou aux dispositifs clients, p.ex. authentification des utilisateurs finaux ou des dispositifs clients ou
H04N 21/258 - Gestion de données liées aux clients ou aux utilisateurs finaux, p.ex. gestion des capacités des clients, préférences ou données démographiques des utilisateurs, traitement des multiples préférences des utilisateurs finaux pour générer des données co
2.
Predictive Measurement of End-User Consumption of Scheduled Multimedia Transmissions
Methods and systems for determining projected amounts of viewing time of a TV program by end-users are disclosed. Data including end-user type, a TV program descriptor, TV network, and start time of transmission may be received. End-users may be identified by end-user type. A machine-learning model applied to the data and viewing history data may generate parameters for determining how much of the TV program they are each expected to view during a sequence of time intervals. For each end-user, the parameters may be applied to make a determination of temporal-fraction values of the TV program the end-user is expected to view during the time interval, and for each time interval, conditioning values used to condition the determination for the next time interval. Projected subtotals of viewing time may be determined, based on the temporal-fraction values. A projected total amount viewing time of the TV program may then be determined.
H04N 21/25 - Opérations de gestion réalisées par le serveur pour faciliter la distribution de contenu ou administrer des données liées aux utilisateurs finaux ou aux dispositifs clients, p.ex. authentification des utilisateurs finaux ou des dispositifs clients ou
H04N 21/24 - Surveillance de procédés ou de ressources, p.ex. surveillance de la charge du serveur, de la bande passante disponible ou des requêtes effectuées sur la voie montante
H04N 21/258 - Gestion de données liées aux clients ou aux utilisateurs finaux, p.ex. gestion des capacités des clients, préférences ou données démographiques des utilisateurs, traitement des multiples préférences des utilisateurs finaux pour générer des données co
3.
Methods and Systems for Determining Accuracy of Sport-Related Information Extracted from Digital Video Frames
A computing system determines accuracy of sport-related information extracted from a time sequence of digital video frames that represent a sport event, the extracted sport-related information including an attribute that changes over the time sequence. The computing system (a) detects, based on the extracted sport-related information, a pattern of change of the attribute over the time sequence and (b) makes a determination of whether the detected pattern is an expected pattern of change associated with the sport event. If the determination is that the detected pattern is the expected pattern, then, responsive to making the determination, the computing system takes a first action that corresponds to the sport-related information being accurate. Whereas, if the determination is that the detected pattern is not the expected pattern, then, responsive to making the determination, the computing system takes a second action that corresponds to the sport-related information being inaccurate.
A machine may form all or part of a network-based system configured to provide media service to one or more user devices. The machine may be configured to define a station library within a larger collection of media files. In particular, the machine may access metadata that describes a seed that forms the basis on which the station library is to be defined. The machine may determine a genre composition for the station library based on the metadata. The machine may generate a list of media files from the metadata based on a relevance of each media file to the station library. The machine may determine the relevance of each media file based on a similarity of the media file to the genre composition of the station library as well as a comparison of metadata describing the media file to the accessed metadata that describes the seed.
G06F 16/48 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
H04L 65/612 - Diffusion en flux de paquets multimédias pour la prise en charge des services de diffusion par flux unidirectionnel, p.ex. radio sur Internet pour monodiffusion [unicast]
In one aspect, an example method includes (i) extracting a sequence of audio features from a portion of a sequence of media content; (ii) extracting a sequence of video features from the portion of the sequence of media content; (iii) providing the sequence of audio features and the sequence of video features as an input to a transition detector neural network that is configured to classify whether or not a given input includes a transition between different content segments; (iv) obtaining from the transition detector neural network classification data corresponding to the input; (v) determining that the classification data is indicative of a transition between different content segments; and (vi) based on determining that the classification data is indicative of a transition between different content segments, outputting transition data indicating that the portion of the sequence of media content includes a transition between different content segments.
G06V 10/82 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant les réseaux neuronaux
G06F 18/2413 - Techniques de classification relatives au modèle de classification, p.ex. approches paramétriques ou non paramétriques basées sur les distances des motifs d'entraînement ou de référence
G06N 3/049 - Réseaux neuronaux temporels, p.ex. éléments à retard, neurones oscillants ou entrées impulsionnelles
G06V 10/80 - Fusion, c. à d. combinaison des données de diverses sources au niveau du capteur, du prétraitement, de l’extraction des caractéristiques ou de la classification
G06V 20/40 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans le contenu vidéo
H04N 21/234 - Traitement de flux vidéo élémentaires, p.ex. raccordement de flux vidéo ou transformation de graphes de scènes MPEG-4
Systems and methods for monitoring of icon in an external display device are disclosed. Images of an icon displayed in a display device may be continually captured as video frames by a video camera of an icon monitoring system. While operating in a first mode, video frames may be continually analyzed to determine if the captured image matches an active template icon known to match the captured image of the icon. While the captured image matches the active template icon, operating in the first mode continues. Upon detecting a failed match to the active template icon, the system starts operating in a second to search among known template icons for a new match. Upon finding a new match, the active template icon may be updated to the new match, and operation switches back to the first mode. Times of transitions between the first and second modes may be recorded.
G06N 3/082 - Méthodes d'apprentissage modifiant l’architecture, p.ex. par ajout, suppression ou mise sous silence de nœuds ou de connexions
G06F 3/04817 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport utilisant des icônes
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06V 10/75 - Appariement de motifs d’image ou de vidéo; Mesures de proximité dans les espaces de caractéristiques utilisant l’analyse de contexte; Sélection des dictionnaires
G06V 20/40 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans le contenu vidéo
7.
Machine Learning Systems and Methods for Predicting End-User Consumption of Future Multimedia Transmissions
Methods and systems for prediction audience ratings are disclosed. A database of television (TV) viewing data may include program records for a multiplicity of existing TV programs. A system may receive a training plurality of program records from the TV viewing data, and for each program record a most similar TV program based on content characteristics may be identified. A synthetic program record may be constructed by merging features of each record and its most similar record. Audience performance metrics may be omitted from synthetic records. An aggregate of the training plurality of program records and the synthetic program records may be used to train a machine-learning (ML) model to predict audience performance metrics of the new or hypothetical TV programs not yet available for viewing and/or not yet transmitted or streamed.
H04N 21/25 - Opérations de gestion réalisées par le serveur pour faciliter la distribution de contenu ou administrer des données liées aux utilisateurs finaux ou aux dispositifs clients, p.ex. authentification des utilisateurs finaux ou des dispositifs clients ou
H04N 21/442 - Surveillance de procédés ou de ressources, p.ex. détection de la défaillance d'un dispositif d'enregistrement, surveillance de la bande passante sur la voie descendante, du nombre de visualisations d'un film, de l'espace de stockage disponible dans l
Accurately detection of logos in media content on media presentation devices is addressed. Logos and products are detected in media content produced in retail deployments using a camera. Logo recognition uses saliency analysis, segmentation techniques, and stroke analysis to segment likely logo regions. Logo recognition may suitably employ feature extraction, signature representation, and logo matching. These three approaches make use of neural network based classification and optical character recognition (OCR). One method for OCR recognizes individual characters then performs string matching. Another OCR method uses segment level character recognition with N-gram matching. Synthetic image generation for training of a neural net classifier and utilizing transfer learning features of neural networks are employed to support fast addition of new logos for recognition.
G06V 10/82 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant les réseaux neuronaux
G06T 7/33 - Détermination des paramètres de transformation pour l'alignement des images, c. à d. recalage des images utilisant des procédés basés sur les caractéristiques
G06V 10/46 - Descripteurs pour la forme, descripteurs liés au contour ou aux points, p.ex. transformation de caractéristiques visuelles invariante à l’échelle [SIFT] ou sacs de mots [BoW]; Caractéristiques régionales saillantes
G06V 10/764 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant la classification, p.ex. des objets vidéo
Methods, apparatus, systems and articles of manufacture are disclosed for efficient media indexing. An example method disclosed herein includes means for initiating a list of hash seeds, the list of hash seeds including at least a first hash seed value and a second hash seed value among other hash seed values, means for generating to generate a first bucket distribution based on the first hash seed value and a first hash function and generate a second bucket distribution based on the second hash seed value used in combination with the first hash seed value, means for determining to determine a first entropy value of the first bucket distribution, wherein data associated with the first bucket distribution is stored in a first hash table and determine a second entropy value of the second bucket distribution.
In one aspect, an example method to be performed by a vehicle-based media system includes (a) receiving audio content; (b) causing one or more speakers to output the received audio content; (c) using a microphone of the vehicle-based media system to capture the output audio content; (d) identifying reference audio content that has at least a threshold extent of similarity with the captured audio content; (e) identifying visual content based at least on the identified reference audio content; and (f) outputting, via a user interface of the vehicle-based media system, the identified visual content.
H04H 20/62 - Dispositions spécialement adaptées à des applications spécifiques, p.ex. aux informations sur le trafic ou aux récepteurs mobiles à la radiodiffusion locale, p.ex. la radiodiffusion en interne aux systèmes de transport, p.ex. dans les véhicules
G01C 21/36 - Dispositions d'entrée/sortie pour des calculateurs embarqués
G06Q 30/0207 - Remises ou incitations, p.ex. coupons ou rabais
G10L 15/26 - Systèmes de synthèse de texte à partir de la parole
G10L 19/018 - Mise en place d’un filigrane audio, c. à d. insertion de données inaudibles dans le signal audio
H04N 21/41 - Structure de client; Structure de périphérique de client
H04N 21/414 - Plate-formes spécialisées de client, p.ex. récepteur au sein d'une voiture ou intégré dans un appareil mobile
H04N 21/422 - Périphériques d'entrée uniquement, p.ex. système de positionnement global [GPS]
H04R 3/12 - Circuits pour transducteurs pour distribuer des signaux à plusieurs haut-parleurs
H04W 4/02 - Services utilisant des informations de localisation
H04W 4/44 - Services spécialement adaptés à des environnements, à des situations ou à des fins spécifiques pour les véhicules, p.ex. communication véhicule-piétons pour la communication entre véhicules et infrastructures, p.ex. véhicule à nuage ou véhicule à domicile
11.
Synthesizing A Presentation From Multiple Media Clips
In an example implementation, a method is described. The implementation accesses first and second media clips. The implementation also matches a first fingerprint of the first media clip with a second fingerprint of the second media clip and determines an overlap of the first media clip with the second media clip. The implementation also, based on the overlap, merges the first and second media clips into a group of overlapping media clips, transmits, to a client device, data identifying the group of overlapping media clips and specifying a synchronization of the first media clip with the second media clip, and generates for display on a display device of the client computing device, a graphical user interface that identifies the group of overlapping media clips, specifies the synchronization of the first media clip with the second media clip, and allows access to, and manipulation of, the first and second media clips.
G11B 27/10 - Indexation; Adressage; Minutage ou synchronisation; Mesure de l'avancement d'une bande
G11B 27/28 - Indexation; Adressage; Minutage ou synchronisation; Mesure de l'avancement d'une bande en utilisant une information détectable sur le support d'enregistrement en utilisant des signaux d'information enregistrés par le même procédé que pour l'enregistrement principal
H04N 5/262 - Circuits de studio, p.ex. pour mélanger, commuter, changer le caractère de l'image, pour d'autres effets spéciaux
H04N 7/173 - Systèmes à secret analogiques; Systèmes à abonnement analogiques à deux voies, p.ex. l'abonné envoyant un signal de sélection du programme
H04N 21/218 - Source du contenu audio ou vidéo, p.ex. réseaux de disques locaux
H04N 21/2743 - Hébergement vidéo de données téléchargées à partir du dispositif client
H04N 21/8549 - Création de résumés vidéo, p.ex. bande annonce
12.
Selection of Video Frames Using a Machine Learning Predictor
Example systems and methods of selection of video frames using a machine learning (ML) predictor program are disclosed. The ML predictor program may generate predicted cropping boundaries for any given input image. Training raw images associated with respective sets of training master images indicative of cropping characteristics for the training raw image may be input to the ML predictor, and the ML predictor program trained to predict cropping boundaries for raw image based on expected cropping boundaries associated training master images. At runtime, the trained ML predictor program may be applied to a sequence of video image frames to determine for each respective video image frame a respective score corresponding to a highest statistical confidence associated with one or more subsets of cropping boundaries predicted for the respective video image frame. Information indicative of the respective video image frame having the highest score may be stored or recorded.
G06V 10/25 - Détermination d’une région d’intérêt [ROI] ou d’un volume d’intérêt [VOI]
G06F 18/21 - Conception ou mise en place de systèmes ou de techniques; Extraction de caractéristiques dans l'espace des caractéristiques; Séparation aveugle de sources
G06F 18/214 - Génération de motifs d'entraînement; Procédés de Bootstrapping, p.ex. ”bagging” ou ”boosting”
G06T 7/174 - Découpage; Détection de bords impliquant l'utilisation de plusieurs images
G06V 10/774 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant l’intégration et la réduction de données, p.ex. analyse en composantes principales [PCA] ou analyse en composantes indépendantes [ ICA] ou cartes auto-organisatrices [SOM]; Séparation aveugle de source méthodes de Bootstrap, p.ex. "bagging” ou “boosting”
G06V 10/776 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant l’intégration et la réduction de données, p.ex. analyse en composantes principales [PCA] ou analyse en composantes indépendantes [ ICA] ou cartes auto-organisatrices [SOM]; Séparation aveugle de source Évaluation des performances
G06V 20/40 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans le contenu vidéo
13.
Vehicle-Based Media System with Audio Ad and Navigation-Related Action Synchronization Feature
In one aspect, an example method to be performed by a vehicle-based media system includes (a) receiving audio content; (b) causing one or more speakers to output the received audio content; (c) using a microphone of the vehicle-based media system to capture the output audio content; (d) identifying reference audio content that has at least a threshold extent of similarity with the captured audio content; (e) identifying a geographic location associated with the identified reference audio content; and (f) based at least on the identified geographic location associated with the identified reference audio content, outputting, via the user interface of the vehicle-based media system, a prompt to navigate to the identified geographic location.
H04H 20/62 - Dispositions spécialement adaptées à des applications spécifiques, p.ex. aux informations sur le trafic ou aux récepteurs mobiles à la radiodiffusion locale, p.ex. la radiodiffusion en interne aux systèmes de transport, p.ex. dans les véhicules
G01C 21/36 - Dispositions d'entrée/sortie pour des calculateurs embarqués
G06Q 30/0207 - Remises ou incitations, p.ex. coupons ou rabais
G10L 15/26 - Systèmes de synthèse de texte à partir de la parole
G10L 19/018 - Mise en place d’un filigrane audio, c. à d. insertion de données inaudibles dans le signal audio
H04N 21/41 - Structure de client; Structure de périphérique de client
H04N 21/414 - Plate-formes spécialisées de client, p.ex. récepteur au sein d'une voiture ou intégré dans un appareil mobile
H04N 21/422 - Périphériques d'entrée uniquement, p.ex. système de positionnement global [GPS]
H04R 3/12 - Circuits pour transducteurs pour distribuer des signaux à plusieurs haut-parleurs
H04W 4/02 - Services utilisant des informations de localisation
H04W 4/44 - Services spécialement adaptés à des environnements, à des situations ou à des fins spécifiques pour les véhicules, p.ex. communication véhicule-piétons pour la communication entre véhicules et infrastructures, p.ex. véhicule à nuage ou véhicule à domicile
Systems and methods are provided for filtering at least one media content catalog based on criteria for a station library to generate a first list of candidate tracks for the station library, combining a similarity score and a popularity score for each track of the first list of candidate tracks to generate a total score for each track of the first list of candidate tracks, generating a list of top ranked tracks for the first genre, and returning the list of top ranked tracks of the first genre as part of the station library.
G06F 16/61 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/68 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
A machine may be configured to generate one or more audio fingerprints of one or more segments of audio data. The machine may access audio data to be fingerprinted and divide the audio data into segments. For any given segment, the machine may generate a spectral representation from the segment; generate a vector from the spectral representation; generate an ordered set of permutations of the vector; generate an ordered set of numbers from the permutations of the vector; and generate a fingerprint of the segment of the audio data, which may be considered a sub-fingerprint of the audio data. In addition, the machine or a separate device may be configured to determine a likelihood that candidate audio data matches reference audio data.
Example methods and systems for inserting information into playing content are described. In some example embodiments, the methods and systems may identify a break in content playing via a playback device, select an information segment representative of information received by the playback device to present during the identified break, and insert the information segment into the content playing via the playback device upon an occurrence of the identified break.
G06F 16/683 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G11B 27/11 - Indexation; Adressage; Minutage ou synchronisation; Mesure de l'avancement d'une bande en utilisant une information non détectable sur le support d'enregistrement
A machine is configured to identify a media file that, when played to a user, is likely to modify an emotional or physical state of the user to or towards a target emotional or physical state. The machine accesses play counts that quantify playbacks of media files for the user. The playbacks may be locally performed or detected by the machine from ambient sound. The machine accesses arousal scores of the media files and determines a distribution of the play counts over the arousal scores. The machine uses one or more relative maxima in the distribution in selecting a target arousal score for the user based on contextual data that describes an activity of the user. The machine selects one or more media files based on the target arousal score. The machine may then cause the selected media file to be played to the user.
Methods and systems for modification of electronic system operation based on acoustic ambience classification are presented. In an example method, at least one audio signal present in a physical environment of a user is detected. The at least one audio signal is analyzed to extract at least one audio feature from the audio signal. The audio signal is classified based on the audio feature to produce at least one classification of the audio signal. Operation of an electronic system interacting with the user in the physical environment is modified based on the classification of the audio signal.
G10L 15/20 - Techniques de reconnaissance de la parole spécialement adaptées de par leur robustesse contre les perturbations environnantes, p.ex. en milieu bruyant ou reconnaissance de la parole émise dans une situation de stress
H03G 3/00 - Commande de gain dans les amplificateurs ou les changeurs de fréquence
G10L 25/48 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier
H03G 3/30 - Commande automatique dans des amplificateurs comportant des dispositifs semi-conducteurs
In one aspect, an example method to be performed by a computing device includes (a) determining that a ride-sharing session is active; (b) in response to determining the ride-sharing session is active, using a microphone of the computing device to capture audio content; (c) identifying reference audio content that has at least a threshold extent of similarity with the captured audio content; (d) determining that the ride-sharing session is inactive; and (e) outputting an indication of the identified reference audio content.
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
G06F 16/68 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06F 16/683 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
20.
Synchronizing Streaming Media Content Across Devices
Methods, apparatus, and systems are disclosed for synchronizing streaming media content. An example apparatus includes a storage device, and a processor to execute instructions to identify a first source streaming broadcast media to a first computing device based on an audio fingerprint of audio associated with the broadcast media, identify sources broadcasting the broadcast media streaming to the first computing device, the sources available to a second computing device including the processor, select a second source of the identified sources for streaming the broadcast media to the second computing device, the second source different than the first source, detect termination of the streaming of the broadcast media on the first computing device, the termination corresponding to a termination time of the broadcast media, and automatically start, by using the selected second source, streaming of the broadcast media to the second computing device at the termination time.
H04N 21/43 - Traitement de contenu ou données additionnelles, p.ex. démultiplexage de données additionnelles d'un flux vidéo numérique; Opérations élémentaires de client, p.ex. surveillance du réseau domestique ou synchronisation de l'horloge du décodeur; Intergiciel de client
H04N 21/439 - Traitement de flux audio élémentaires
H04H 60/40 - Dispositions d'identification ou de reconnaissance de caractéristiques en liaison directe avec les informations radiodiffusées ou le créneau spatio-temporel de radiodiffusion, p.ex. pour identifier les stations de radiodiffusion ou pour identifier le pour identifier le temps ou l'espace de radiodiffusion pour identifier le temps de radiodiffusion
H04H 60/58 - Dispositions caractérisées par des composants spécialement adaptés à la surveillance, l'identification ou la reconnaissance, couverts par les groupes ou audio
H04H 60/65 - Dispositions pour des services utilisant les résultats du contrôle, de l'identification ou de la reconnaissance, couverts par les groupes ou pour utiliser les résultats côté utilisateurs
H04L 65/611 - Diffusion en flux de paquets multimédias pour la prise en charge des services de diffusion par flux unidirectionnel, p.ex. radio sur Internet pour la multidiffusion ou la diffusion
21.
OBTAINING ARTIST IMAGERY FROM VIDEO CONTENT USING FACIAL RECOGNITION
An example method may include receiving, at a computing device, a digital image associated with a particular media content program, the digital image containing one or more faces of particular people associated with the particular media content program. A computer-implemented automated face recognition program may be applied to the digital image to recognize, based on at least one feature vector from a prior-determined set of feature vectors, one or more of the particular people in the digital image, together with respective geometric coordinates for each of the one or more detected faces. At least a subset of the prior-determined set of feature vectors may be associated with a respective one of the particular people. The digital image together may be stored in non-transitory computer-readable memory, together with information assigning respective identities of the recognized particular people, and associating with each respective assigned identity geometric coordinates in the digital image.
G06V 40/16 - Visages humains, p.ex. parties du visage, croquis ou expressions
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06F 16/783 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
22.
Methods and Apparatus for Harmonic Source Enhancement
Methods and apparatus for harmonic source enhancement are disclosed herein. An example apparatus includes an interface to receive a media signal. The example apparatus also includes a harmonic source enhancer to determine a magnitude spectrogram of audio corresponding to the media signal; generate a time-frequency mask based on the magnitude spectrogram; and apply the time-frequency mask to the magnitude spectrogram to enhance a harmonic source of the media signal.
G10K 11/175 - Procédés ou dispositifs de protection contre le bruit ou les autres ondes acoustiques ou pour amortir ceux-ci, en général utilisant des effets d'interférence; Masquage du son
G10L 25/18 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par le type de paramètres extraits les paramètres extraits étant l’information spectrale de chaque sous-bande
23.
METHODS AND APPARATUS FOR PLAYBACK USING PRE-PROCESSED INFORMATION AND PERSONALIZATION
Methods, apparatus, systems and articles of manufacture are disclosed for playback using pre-processed profile information and personalization. Example apparatus disclosed herein include a synchronizer to, in response to receiving a media signal to be played on a playback device, access an equalization (EQ) profile corresponding to the media signal; an EQ personalization manager to generate a personalized EQ setting; and an EQ adjustment implementor to modify playback of the media signal on the playback device based on a blended equalization generation based on the EQ profile and the personalized EQ setting.
H04N 21/442 - Surveillance de procédés ou de ressources, p.ex. détection de la défaillance d'un dispositif d'enregistrement, surveillance de la bande passante sur la voie descendante, du nombre de visualisations d'un film, de l'espace de stockage disponible dans l
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
G10L 25/30 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par la technique d’analyse utilisant des réseaux neuronaux
H04N 9/87 - Régénération des signaux de télévision en couleurs
H04N 21/439 - Traitement de flux audio élémentaires
H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p.ex. apprentissage des préféren
24.
GENERATION OF MEDIA STATION PREVIEWS USING A REFERENCE DATABASE
In one aspect, an example method includes (i) while a media playback device of a vehicle is playing back content received on a first channel, sending, by the media playback device to a server, a preview request, the preview request identifying a second channel that is different from the first channel; (ii) receiving, by the media playback device from the server, a response to the preview request, the response including identifying information corresponding to content being provided on the second channel; and (iii) while the media playback device is playing back the content received on the first channel, providing, by the media playback device for display, at least a portion of the identifying information corresponding to content being provided on the second channel.
H04N 21/44 - Traitement de flux élémentaires vidéo, p.ex. raccordement d'un clip vidéo récupéré d'un stockage local avec un flux vidéo en entrée ou rendu de scènes selon des graphes de scène MPEG-4
H04N 21/472 - Interface pour utilisateurs finaux pour la requête de contenu, de données additionnelles ou de services; Interface pour utilisateurs finaux pour l'interaction avec le contenu, p.ex. pour la réservation de contenu ou la mise en place de rappels, pour la requête de notification d'événement ou pour la transformation de contenus affichés
H04N 21/2387 - Traitement de flux en réponse à une requête de reproduction par un utilisateur final, p.ex. pour la lecture à vitesse variable ("trick play")
H04N 21/278 - Base de données de descripteurs de contenu ou service de répertoire pour accès par les utilisateurs finaux
H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p.ex. apprentissage des préféren
Techniques of providing motion video content along with audio content are disclosed. In some example embodiments, a computer-implemented system is configured to perform operations comprising: receiving primary audio content; determining that at least one reference audio content satisfies a predetermined similarity threshold based on a comparison of the primary audio content with the at least one reference audio content; for each one of the at least one reference audio content, identifying motion video content based on the motion video content being stored in association with the one of the at least one reference audio content and not stored in association with the primary audio content; and causing the identified motion video content to be displayed on a device concurrently with a presentation of the primary audio content on the device.
H04N 21/43 - Traitement de contenu ou données additionnelles, p.ex. démultiplexage de données additionnelles d'un flux vidéo numérique; Opérations élémentaires de client, p.ex. surveillance du réseau domestique ou synchronisation de l'horloge du décodeur; Intergiciel de client
H04N 21/439 - Traitement de flux audio élémentaires
H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p.ex. apprentissage des préféren
26.
METHODS AND APPARATUS FOR DYNAMIC VOLUME ADJUSTMENT VIA AUDIO CLASSIFICATION
Methods, apparatus, systems and articles of manufacture are disclosed for dynamic volume adjustment via audio classification. Example apparatus include at least one memory; instructions; and at least one processor to execute the instructions to: analyze, with a neural network, a parameter of an audio signal associated with a first volume level to determine a classification group associated with the audio signal; determine an input volume of the audio signal; determine a classification gain value based on the classification group; determine an intermediate gain value as an intermediate between the input volume and the classification gain value by applying a first weight to the input volume and a second weight to the classification gain value; apply the intermediate gain value to the audio signal, the intermediate gain value to modify the first volume level to a second volume level; and apply a compression value to the audio signal, the compression value to modify the second volume level to a third volume level that satisfies a target volume threshold.
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
Apparatus, systems, articles of manufacture, and methods for volume adjustment are disclosed herein. An example method includes collecting data corresponding to a volume of an audio signal as the audio signal is output through a device, when an average volume of the audio signal does not satisfy a volume threshold for a specified timespan, determining a difference between the average volume and a desired volume, and applying a gain to the audio signal to adjust the volume of the audio signal to the desired volume, the gain determined based on the difference between the average volume and the desired volume.
A method for controlling presentation of metadata regarding media. A system could generate query fingerprints representing media content being presented, the media content having been identified as being a first media-content item. The system could further detect a threshold mismatch comprising at least one of the query fingerprints not matching any of first reference fingerprints known to represent the first media-content item. In response, the system could engage in new media identification, establishing that the media content is a second media-content item, and could obtain both second reference fingerprints known to represent the second media-content item and metadata regarding the second media-content item. Further, the system could validate the new identification as a condition precedent to presenting the obtained metadata, the validating including comparing with the obtained second digital reference fingerprints the at least one digital query fingerprint that did not match any of the first digital reference fingerprints.
G06F 16/483 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
A clustering machine can cluster descriptive vectors in a balanced manner. The clustering machine calculates distances between pairs of descriptive vectors and generates clusters of vectors arranged in a hierarchy. The clustering machine determines centroid vectors of the clusters, such that each cluster is represented by its corresponding centroid vector. The clustering machine calculates a sum of inter-cluster vector distances between pairs of centroid vectors, as well as a sum of intra-cluster vector distances between pairs of vectors in the clusters. The clustering machine calculates multiple scores of the hierarchy by varying a scalar and calculating a separate score for each scalar. The calculation of each score is based on the two sums previously calculated for the hierarchy. The clustering machine may select or otherwise identify a balanced subset of the hierarchy by finding an extremum in the calculated scores.
Techniques of providing an interactive programming guide with a personalized lineup are disclosed. In some embodiments, a profile is accessed, and a personalized lineup is determined based on the profile. The personalized lineup may include a corresponding media content identification assigned to each one of a plurality of sequential time slots, where each media content identification identifies media content for the corresponding time slot. A first interactive programming guide may be caused to be displayed on a first media content device associated with the profile, where the first interactive programming guide includes the personalized lineup.
H04N 21/482 - Interface pour utilisateurs finaux pour la sélection de programmes
H04N 21/2668 - Création d'un canal pour un groupe dédié d'utilisateurs finaux, p.ex. en insérant des publicités ciblées dans un flux vidéo en fonction des profils des utilisateurs finaux
H04N 21/431 - Génération d'interfaces visuelles; Rendu de contenu ou données additionnelles
H04N 21/475 - Interface pour utilisateurs finaux pour acquérir des données d'utilisateurs finaux, p.ex. numéro d'identification personnel [PIN] ou données de préférences
H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p.ex. apprentissage des préféren
H04N 21/454 - Filtrage de contenu, p.ex. blocage des publicités
H04N 21/442 - Surveillance de procédés ou de ressources, p.ex. détection de la défaillance d'un dispositif d'enregistrement, surveillance de la bande passante sur la voie descendante, du nombre de visualisations d'un film, de l'espace de stockage disponible dans l
H04N 21/466 - Procédé d'apprentissage pour la gestion intelligente, p.ex. apprentissage des préférences d'utilisateurs pour recommander des films
H04N 21/472 - Interface pour utilisateurs finaux pour la requête de contenu, de données additionnelles ou de services; Interface pour utilisateurs finaux pour l'interaction avec le contenu, p.ex. pour la réservation de contenu ou la mise en place de rappels, pour la requête de notification d'événement ou pour la transformation de contenus affichés
H04N 21/845 - Structuration du contenu, p.ex. décomposition du contenu en segments temporels
31.
METHODS AND APPARATUS TO IDENTIFY MEDIA THAT HAS BEEN PITCH SHIFTED, TIME SHIFTED, AND/OR RESAMPLED
Methods, apparatus, systems and articles of manufacture are disclosed to identify media that has been pitch shifted, time shifted, and/or resampled. An example apparatus includes: memory; instructions in the apparatus; and processor circuitry to execute the instructions to: transmit a fingerprint of an audio signal and adjusting instructions to a central facility to facilitate a query, the adjusting instructions identifying at least one of a pitch shift, a time shift, or a resample ratio; obtain a response including an identifier for the audio signal and information corresponding to how the audio signal was adjusted; and change the adjusting instructions based on the information.
G06F 16/683 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G06F 16/68 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06F 18/22 - Critères d'appariement, p.ex. mesures de proximité
32.
CLASSIFYING SEGMENTS OF MEDIA CONTENT USING CLOSED CAPTIONING
In one aspect, an example method includes (i) retrieving, from a text index, closed captioning repetition data for a segment of a sequence of media content; (ii) generating features using the closed captioning repetition data; (iii) providing the features as input to a classification model, wherein the classification model is configured to output classification data indicative of a likelihood of the features being characteristic of a program segment; (iv) obtaining the classification data output by the classification model; (v) determining a prediction of whether the segment is a program segment using the classification data; and (vi) storing the prediction for the segment in a database.
A method implemented by a computing system comprises generating, by the computing system, a fingerprint comprising a plurality of bin samples associated with audio content. Each bin sample is specified within a frame of the fingerprint and is associated with one of a plurality of non-overlapping frequency ranges and a value indicative of a magnitude of energy associated with a corresponding frequency range. The computing system removes, from the fingerprint, a plurality of bin samples associated with a frequency sweep in the audio content.
G10L 25/54 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation pour la recherche
G10L 25/27 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par la technique d’analyse
G10L 25/72 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour transmettre les résultats de l’analyse
G10L 19/018 - Mise en place d’un filigrane audio, c. à d. insertion de données inaudibles dans le signal audio
34.
System and Method to Identify Programs and Commercials in Video Content via Unsupervised Static Content Identification
In one aspect, an example method includes (i) determining, by a computing system, a mean image of a set of frames of video content; (ii) extracting, by the computing system, a reference template of static content from the mean image; (iii) identifying, by the computing system, the extracted reference template of static content in a frame of the set of frames of the video content; (iv) labeling a segment within the video content as either a program segment or an advertisement segment based on the identifying of the extracted reference template of static content in the frame of the video content; and (v) generating data identifying the labeled segment.
A method and system for computer-based generation of podcast metadata, to facilitate operations such as searching for and recommending podcasts based on the generated metadata. In an example method, a computing system obtains a text representation of a podcast episode and obtains person data defining a list of person names such as celebrity names. The computing system then correlates the person data with the text representation, to find a match between a listed person name a text string in the text representation. Further, the computing system predicts a named-entity span in the text representation and determines that the predicted named-entity span matches a location of the text string in the text representation of the podcast episode, and based on this determination, the computing system generates and outputs metadata that associates the person name with the podcast episode.
G06F 16/335 - Filtrage basé sur des données supplémentaires, p.ex. sur des profils d’utilisateurs ou de groupes
G06F 16/383 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
Example systems and methods for automated generation of banner images are disclosed. A program identifier associated with a particular media program may be received by a system, and used for accessing a set of iconic digital images and corresponding metadata associated with the particular media program. The system may select a particular iconic digital image for placing a banner of text associated with the particular media program, by applying an analytical model of banner-placement criteria to the iconic digital images. The system may apply another analytical model for banner generation to the particular iconic image to determine (i) dimensions and placement of a bounding box for containing the text, (ii) segmentation of the text for display within the bounding box, and (iii) selection of font, text size, and font color for display of the text. The system may store the particular iconic digital image and banner metadata specifying the banner.
Systems and methods are disclosed for dynamic content delivery based on vehicle navigational attributes. An example apparatus includes at least one memory, machine readable instructions, and processor circuitry to execute the machine readable instructions to at least obtain navigational attributes from an electronic device of a vehicle via a network, determine a relevancy score for respective ones of first sporting event data items based on the navigational attributes, based on a determination that the navigational attributes correspond to a driving condition, identify a second sporting event data item of the first sporting event data items based on a relevancy score of the second sporting event data item corresponding to the driving condition, and transmit the second sporting event data item to the electronic device of the vehicle to cause the second sporting event data item to be presented.
G01C 21/26 - Navigation; Instruments de navigation non prévus dans les groupes spécialement adaptés pour la navigation dans un réseau routier
H04L 67/12 - Protocoles spécialement adaptés aux environnements propriétaires ou de mise en réseau pour un usage spécial, p.ex. les réseaux médicaux, les réseaux de capteurs, les réseaux dans les véhicules ou les réseaux de mesure à distance
B60W 40/08 - Calcul ou estimation des paramètres de fonctionnement pour les systèmes d'aide à la conduite de véhicules routiers qui ne sont pas liés à la commande d'un sous-ensemble particulier liés aux conducteurs ou aux passagers
G06F 16/9537 - Recherche à dépendance spatiale ou temporelle, p.ex. requêtes spatio-temporelles
G06F 16/9535 - Adaptation de la recherche basée sur les profils des utilisateurs et la personnalisation
G06F 16/2457 - Traitement des requêtes avec adaptation aux besoins de l’utilisateur
H04W 4/021 - Services concernant des domaines particuliers, p.ex. services de points d’intérêt, services sur place ou géorepères
H04W 4/40 - Services spécialement adaptés à des environnements, à des situations ou à des fins spécifiques pour les véhicules, p.ex. communication véhicule-piétons
Methods, apparatus, systems and articles of manufacture are disclosed for audio equalization. Example instructions disclosed herein cause one or more processors to at least: detect an irregularity in a frequency representation of an audio signal in response to a change in volume between a set of frequency values exceeding a threshold; and adjust a volume at a first frequency value of the set of frequency values to reduce the irregularity..
H04N 21/442 - Surveillance de procédés ou de ressources, p.ex. détection de la défaillance d'un dispositif d'enregistrement, surveillance de la bande passante sur la voie descendante, du nombre de visualisations d'un film, de l'espace de stockage disponible dans l
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
G10L 25/30 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par la technique d’analyse utilisant des réseaux neuronaux
H04N 9/87 - Régénération des signaux de télévision en couleurs
H04N 21/439 - Traitement de flux audio élémentaires
H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p.ex. apprentissage des préféren
Methods and systems for automated video segmentation are disclosed. A sequence of video frames having video segments of contextually-related sub-sequences may be received. Each frame may be labeled according to segment and segment class. A video graph may be constructed in which each node corresponds to a different frame, and each edge connects a different pair of nodes, and is associated with a time between video frames and a similarity metric of the connected frames. An artificial neural network (ANN) may be trained to predict both labels for the nodes and clusters of the nodes corresponding to predicted membership among the segments, using the video graph as input to the ANN, and ground-truth clusters of ground-truth labeled nodes. The ANN may be further trained to predict segment classes of the predicted clusters, using the segment classes as ground truths. The trained ANN may be configured for application runtime video sequences.
A computing system engages in digital image processing of received video frames to generate sport data that indicates a score and/or a time associated with a sport event. The digital image processing includes: (i) identifying a first frame region of the video frames based on the first frame region depicting a scoreboard; (ii) executing a first procedure that analyzes the identified first frame region to detect, within the identified first frame region, second frame region(s) based on the second frame region(s) depicting text of the scoreboard; (iii) in response to detecting the second frame region(s), executing a second procedure to recognize the text in at least one of the second frame region(s); and (iv) based at least on the recognizing of the text, generating the sport data. In response to completing the digital image processing, the computing system then carries out an action based on the generated sport data.
A computing system automatically detects, within a digital video frame, a video frame region that depicts a textual expression of a scoreboard. The computing system (a) engages in an edge-detection process to detect edges of at least scoreboard image elements depicted by the digital video frame, with at least some of these edges being of the textual expression and defining alphanumeric shapes; (b) applies pattern-recognition to identify the alphanumeric shapes; (c) establishes a plurality of minimum bounding rectangles each bounding a respective one of the identified alphanumeric shapes; (d) establishes, based on at least two of the minimum bounding rectangles, a composite shape that encompasses the identified alphanumeric shapes that were bounded by the at least two minimum bounding rectangles; and (e) based on the composite shape occupying a particular region, deems the particular region to be the video frame region that depicts the textual expression.
G06V 20/62 - Texte, p.ex. plaques d’immatriculation, textes superposés ou légendes des images de télévision
G06V 20/40 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans le contenu vidéo
G06V 10/44 - Extraction de caractéristiques locales par analyse des parties du motif, p.ex. par détection d’arêtes, de contours, de boucles, d’angles, de barres ou d’intersections; Analyse de connectivité, p.ex. de composantes connectées
42.
GENERATION OF MEDIA STATION PREVIEWS USING A SECONDARY TUNER
In one aspect, an example method includes (i) while a media playback device of a vehicle is playing back content received on a first channel, generating, by the media playback device, a query fingerprint using second content received on a second channel; (ii) sending, by the media playback device, the query fingerprint to a server that maintains a reference database containing a plurality of reference fingerprints; (iii) receiving, by the media playback device from the server, identifying information corresponding to a reference fingerprint of the plurality of reference fingerprints that matches the query fingerprint; and (iv) while the media playback device is playing back the first content received on the first channel, providing, by the media playback device for display, at least a portion of the identifying information.
G05B 19/42 - Systèmes d'enregistrement et de reproduction, c. à d. dans lesquels le programme est enregistré à partir d'un cycle d'opérations, p.ex. le cycle d'opérations étant commandé à la main, après quoi cet enregistrement est reproduit sur la même machine
G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport
H04N 5/50 - Indicateurs d'accord; Réglage automatique de l'accord
43.
Methods and Apparatus to Segment Audio and Determine Audio Segment Similarities
Methods, apparatus, and systems are disclosed to segment audio and determine audio segment similarities. An example apparatus includes at least one memory storing instructions and processor circuitry to execute instructions to at least select an anchor index beat of digital audio, identify a first segment of the digital audio based on the anchor index beat to analyze, the first segment having at least two beats and a respective center beat, concatenate time-frequency data of the at least two beats and the respective center beat to form a matrix of the first segment, generate a first deep feature based on the first segment, the first deep feature indicative of a descriptor of the digital audio, and train internal coefficients to classify the first deep feature as similar to a second deep feature based on the descriptor of the first deep feature and a descriptor of a second deep feature.
G10L 15/04 - Segmentation; Détection des limites de mots
G10L 15/06 - Création de gabarits de référence; Entraînement des systèmes de reconnaissance de la parole, p.ex. adaptation aux caractéristiques de la voix du locuteur
G10L 15/16 - Classement ou recherche de la parole utilisant des réseaux neuronaux artificiels
44.
Methods and Apparatus to Improve Detection of Audio Signatures
Methods, apparatus, systems and articles of manufacture are disclosed to improve detection of audio signatures. An example apparatus includes at least one memory, instructions in the apparatus, and processor circuitry to execute the instructions to: determine a first time difference of arrival for a first audio sensor of a meter and a second audio sensor of the meter based on a first audio recording from the first audio sensor and a second audio recording from the second audio sensor; determine a second time difference of arrival for the first audio sensor and a third audio sensor of the meter based on the first audio recording and a third audio recording from the third audio sensor; determine a match by comparing the first time difference of arrival to i) a first virtual source time difference of arrival and ii) a second virtual source time difference of arrival; in response to determining that the first time difference of arrival matches the first virtual source time difference of arrival, identify a first virtual source location as the location of a media presentation device presenting media; and remove the second audio recording to reduce a computational burden on the processor.
G01S 5/24 - Position d'un goniomètre unique obtenue par détermination de la direction de plusieurs sources espacées d'emplacement connu
H04R 1/40 - Dispositions pour obtenir la fréquence désirée ou les caractéristiques directionnelles pour obtenir la caractéristique directionnelle désirée uniquement en combinant plusieurs transducteurs identiques
Example methods and systems for inserting information into playing content are described. In some example embodiments, the methods and systems may identify a break in content playing via a playback device, select an information segment representative of information received by the playback device to present during the identified break, and insert the information segment into the content playing via the playback device upon an occurrence of the identified break.
G06F 16/683 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G11B 27/11 - Indexation; Adressage; Minutage ou synchronisation; Mesure de l'avancement d'une bande en utilisant une information non détectable sur le support d'enregistrement
Apparatus, systems, articles of manufacture, and methods for volume adjustment are disclosed herein. An example method includes collecting data corresponding to a volume of an audio signal as the audio signal is output through a device, when an average volume of the audio signal does not satisfy a volume threshold for a specified timespan, determining a difference between the average volume and a desired volume, and applying a gain to the audio signal to adjust the volume of the audio signal to the desired volume, the gain determined based on the difference between the average volume and the desired volume.
Methods and apparatus for audio identification during a performance are disclosed herein. An example apparatus includes at least one memory and at least one processor to transform a segment of audio into a log-frequency spectrogram based on a constant Q transform using a logarithmic frequency resolution, transform the log-frequency spectrogram into a binary image, each pixel of the binary image corresponding to a time frame and frequency channel pair, each frequency channel representing a corresponding quarter tone frequency channel in a range from C3-C8, generate a matrix product of the binary image and a plurality of reference fingerprints, normalize the matrix product to form a similarity matrix, select an alignment of a line in the similarity matrix that intersects one or more bins in the similarity matrix with the largest calculated Hamming similarities, and select a reference fingerprint based on the alignment.
G06F 16/683 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
48.
Methods and Systems for Scoreboard Region Detection
A computing system automatically detects, in a sequence of video frames, a video frame region that depicts a scoreboard. The video frames of the sequence depict image elements including (i) scoreboard image elements that are unchanging across the video frames of the sequence and (ii) other image elements that change across the video frames of the sequence. Given this, the computing system (a) receives the sequence, (b) engages in an edge-detection process to detect, in the video frames of the sequence, a set of edges of the depicted image elements, (c) identifies a subset of the detected set of edges based on each edge of the subset being unchanging across the video frames of the sequence, and (d) detects, based on the edges of the identified subset, the video frame region that depicts the scoreboard.
G06V 20/40 - RECONNAISSANCE OU COMPRÉHENSION D’IMAGES OU DE VIDÉOS Éléments spécifiques à la scène dans le contenu vidéo
G06V 20/62 - Texte, p.ex. plaques d’immatriculation, textes superposés ou légendes des images de télévision
G06V 10/44 - Extraction de caractéristiques locales par analyse des parties du motif, p.ex. par détection d’arêtes, de contours, de boucles, d’angles, de barres ou d’intersections; Analyse de connectivité, p.ex. de composantes connectées
G06V 10/75 - Appariement de motifs d’image ou de vidéo; Mesures de proximité dans les espaces de caractéristiques utilisant l’analyse de contexte; Sélection des dictionnaires
49.
Vehicle-based media system with audio ad and visual content synchronization feature
In one aspect, an example method to be performed by a vehicle-based media system includes (a) receiving audio content; (b) causing one or more speakers to output the received audio content; (c) using a microphone of the vehicle-based media system to capture the output audio content; (d) identifying reference audio content that has at least a threshold extent of similarity with the captured audio content; (e) identifying visual content based at least on the identified reference audio content; and (f) outputting, via a user interface of the vehicle-based media system, the identified visual content.
G10L 15/26 - Systèmes de synthèse de texte à partir de la parole
G10L 19/018 - Mise en place d’un filigrane audio, c. à d. insertion de données inaudibles dans le signal audio
H04H 20/62 - Dispositions spécialement adaptées à des applications spécifiques, p.ex. aux informations sur le trafic ou aux récepteurs mobiles à la radiodiffusion locale, p.ex. la radiodiffusion en interne aux systèmes de transport, p.ex. dans les véhicules
H04N 21/41 - Structure de client; Structure de périphérique de client
H04N 21/422 - Périphériques d'entrée uniquement, p.ex. système de positionnement global [GPS]
H04R 3/12 - Circuits pour transducteurs pour distribuer des signaux à plusieurs haut-parleurs
H04W 4/02 - Services utilisant des informations de localisation
H04W 4/44 - Services spécialement adaptés à des environnements, à des situations ou à des fins spécifiques pour les véhicules, p.ex. communication véhicule-piétons pour la communication entre véhicules et infrastructures, p.ex. véhicule à nuage ou véhicule à domicile
In one aspect, an example method to be performed by a computing device includes (a) determining that a ride-sharing session is active; (b) in response to determining the ride-sharing session is active, using a microphone of the computing device to capture audio content; (c) identifying reference audio content that has at least a threshold extent of similarity with the captured audio content; (d) determining that the ride-sharing session is inactive; and (e) outputting an indication of the identified reference audio content.
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
G06F 16/68 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06F 16/683 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
Example methods and systems for modifying the playback of content using pre-processed profile information are described. Example instructions, when executed, cause at least one processor to access a media stream that includes media and a profile of equalization parameters, the media stream provided to a device via a network, the profile of equalization parameters included in the media stream selected based on a comparison of a reference fingerprint to a query fingerprint generated based on the media, the profile of equalization parameters including an equalization parameter for the media; and modify playback of the media based on the equalization parameter specified in the accessed profile.
H04H 60/47 - Dispositions d'identification ou de reconnaissance de caractéristiques en liaison directe avec les informations radiodiffusées ou le créneau spatio-temporel de radiodiffusion, p.ex. pour identifier les stations de radiodiffusion ou pour identifier le pour reconnaître les genres
H04R 3/04 - Circuits pour transducteurs pour corriger la fréquence de réponse
H04H 60/58 - Dispositions caractérisées par des composants spécialement adaptés à la surveillance, l'identification ou la reconnaissance, couverts par les groupes ou audio
H04H 60/65 - Dispositions pour des services utilisant les résultats du contrôle, de l'identification ou de la reconnaissance, couverts par les groupes ou pour utiliser les résultats côté utilisateurs
H04N 21/233 - Traitement de flux audio élémentaires
H04N 21/234 - Traitement de flux vidéo élémentaires, p.ex. raccordement de flux vidéo ou transformation de graphes de scènes MPEG-4
H04N 21/266 - Gestion de canal ou de contenu, p.ex. génération et gestion de clés et de messages de titres d'accès dans un système d'accès conditionnel, fusion d'un canal de monodiffusion de VOD dans un canal multidiffusion
H04N 21/414 - Plate-formes spécialisées de client, p.ex. récepteur au sein d'une voiture ou intégré dans un appareil mobile
H04N 21/432 - Opération de récupération de contenu d'un support de stockage local, p.ex. disque dur
H04N 21/654 - Transmission du serveur vers le client
An example method involves comparing a primary element of a first piece of audio data to a primary element of a second piece of audio data; based on the comparing of the primary elements, determining that the first and second pieces of audio data have the same predominant mood category; in response to determining that the first and second pieces of audio data have the same predominant mood category, comparing a first mood score of the primary element of the first piece of audio data to a second mood score of the primary element of a second piece of audio data; determining that an output of the comparison of the two mood scores exceeds a threshold value; and in response to determining that the output of the comparison of the two mood scores exceeds the threshold value, providing an indicator to an application.
G06F 16/2457 - Traitement des requêtes avec adaptation aux besoins de l’utilisateur
G06F 16/438 - Présentation des résultats des requêtes
G10H 1/00 - INSTRUMENTS DE MUSIQUE ÉLECTROPHONIQUES; INSTRUMENTS DANS LESQUELS LES SONS SONT PRODUITS PAR DES MOYENS ÉLECTROMÉCANIQUES OU DES GÉNÉRATEURS ÉLECTRONIQUES, OU DANS LESQUELS LES SONS SONT SYNTHÉTISÉS À PARTIR D'UNE MÉMOIRE DE DONNÉES Éléments d'instruments de musique électrophoniques
53.
Radio Head Unit with Dynamically Updated Tunable Channel Listing
In one aspect, an example method includes (i) encountering, by a media playback device of a vehicle, a trigger to update a list of currently tunable radio stations; (ii) based on encountering the trigger to update the list of currently tunable radio stations, updating, by the media playback device, the list of currently tunable radio stations using a location of the vehicle and radio station contour data stored in a local database of the media playback device; and (iii) displaying, by the media playback device, a station list using the list of currently tunable radio stations.
H04H 60/73 - Systèmes spécialement adaptés à l'utilisation d'informations spécifiques, p.ex. d'informations géographiques ou météorologiques utilisant des méta-informations
H04H 40/18 - Dispositions caractérisées par des circuits ou composants spécialement adaptés à la réception
H04H 60/41 - Dispositions d'identification ou de reconnaissance de caractéristiques en liaison directe avec les informations radiodiffusées ou le créneau spatio-temporel de radiodiffusion, p.ex. pour identifier les stations de radiodiffusion ou pour identifier le pour identifier le temps ou l'espace de radiodiffusion pour identifier l'espace de radiodiffusion, c.-à-d. les canaux de radiodiffusion, les stations de radiodiffusion ou les zones de radiodiffusion
54.
Unified Representation Learning of Media Features for Diverse Tasks
Methods and systems are disclosed for generating general feature vectors (GFVs), each simultaneously constructed for separate tasks of image reconstruction and fingerprint-based image discrimination. The computing system may include machine-learning-based components configured for extracting GFVs from images, signal processing for both transmission and reception and recovery of the extracted GFVs, generating reconstructed images from the recovered GFVs, and discriminating between fingerprints generated from the recovered GFVs and query fingerprints generated from query GFVs. A set of training images may be received at the computing system. In each of one or more training iterations over the set of training images, the components may be jointly trained with each training image of the set by minimizing a joint loss function computed as a sum of losses due to signal processing and recovery, image reconstruction, and fingerprint discrimination. The trained components may be configured for runtime implementation among one or more computing devices.
G06N 20/20 - Techniques d’ensemble en apprentissage automatique
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
55.
Computing System With DVE Template Selection And Video Content Item Generation Feature
In one aspect, an example method includes (i) receiving a first group of video content items; (ii) identifying from among the first group of video content items, a second group of video content items having a threshold extent of similarity with each other; (iii) determining a quality score for each video content item of the second group; (iv) identifying from among the second group of video content items, a third group of video content items each having a quality score that exceeds a quality score threshold; and (v) based on the identifying of the third group, transmitting at least a portion of at least one video content item of the identified third group to a digital video-effect (DVE) system, wherein the system is configured for using the at least the portion of the at least one video content item of the identified third group to generate a video content item.
Methods and apparatus for harmonic source enhancement are disclosed herein. An example apparatus includes an interface to receive a media signal. The example apparatus also includes a harmonic source enhancer to determine a magnitude spectrogram of audio corresponding to the media signal; generate a time-frequency mask based on the magnitude spectrogram; and apply the time-frequency mask to the magnitude spectrogram to enhance a harmonic source of the media signal.
H03G 5/00 - Commande de tonalité ou commande de largeur de bande dans les amplificateurs
H04R 1/32 - Dispositions pour obtenir la fréquence désirée ou les caractéristiques directionnelles pour obtenir la caractéristique directionnelle désirée uniquement
G10K 11/175 - Procédés ou dispositifs de protection contre le bruit ou les autres ondes acoustiques ou pour amortir ceux-ci, en général utilisant des effets d'interférence; Masquage du son
G10L 25/18 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par le type de paramètres extraits les paramètres extraits étant l’information spectrale de chaque sous-bande
A machine is configured to identify a media file that, when played to a user, is likely to modify an emotional or physical state of the user to or towards a target emotional or physical state. The machine accesses play counts that quantify playbacks of media files for the user. The playbacks may be locally performed or detected by the machine from ambient sound. The machine accesses arousal scores of the media files and determines a distribution of the play counts over the arousal scores. The machine uses one or more relative maxima in the distribution in selecting a target arousal score for the user based on contextual data that describes an activity of the user. The machine selects one or more media files based on the target arousal score. The machine may then cause the selected media file to be played to the user.
Methods, apparatus, and systems are disclosed for synchronizing streaming media content. An example apparatus includes a storage device, and a processor to execute instructions to identify a first source streaming broadcast media to a first computing device based on an audio fingerprint of audio associated with the broadcast media, identify sources broadcasting the broadcast media streaming to the first computing device, the sources available to a second computing device including the processor, select a second source of the identified sources for streaming the broadcast media to the second computing device, the second source different than the first source, detect termination of the streaming of the broadcast media on the first computing device, the termination corresponding to a termination time of the broadcast media, and automatically start, by using the selected second source, streaming of the broadcast media to the second computing device at the termination time.
H04N 7/16 - Systèmes à secret analogiques; Systèmes à abonnement analogiques
H04N 21/43 - Traitement de contenu ou données additionnelles, p.ex. démultiplexage de données additionnelles d'un flux vidéo numérique; Opérations élémentaires de client, p.ex. surveillance du réseau domestique ou synchronisation de l'horloge du décodeur; Intergiciel de client
H04N 21/439 - Traitement de flux audio élémentaires
H04H 60/40 - Dispositions d'identification ou de reconnaissance de caractéristiques en liaison directe avec les informations radiodiffusées ou le créneau spatio-temporel de radiodiffusion, p.ex. pour identifier les stations de radiodiffusion ou pour identifier le pour identifier le temps ou l'espace de radiodiffusion pour identifier le temps de radiodiffusion
H04H 60/58 - Dispositions caractérisées par des composants spécialement adaptés à la surveillance, l'identification ou la reconnaissance, couverts par les groupes ou audio
H04H 60/65 - Dispositions pour des services utilisant les résultats du contrôle, de l'identification ou de la reconnaissance, couverts par les groupes ou pour utiliser les résultats côté utilisateurs
H04L 65/611 - Diffusion en flux de paquets multimédias pour la prise en charge des services de diffusion par flux unidirectionnel, p.ex. radio sur Internet pour la multidiffusion ou la diffusion
A machine may be configured to generate one or more audio fingerprints of one or more segments of audio data. The machine may access audio data to be fingerprinted and divide the audio data into segments. For any given segment, the machine may generate a spectral representation from the segment; generate a vector from the spectral representation; generate an ordered set of permutations of the vector; generate an ordered set of numbers from the permutations of the vector; and generate a fingerprint of the segment of the audio data, which may be considered a sub-fingerprint of the audio data. In addition, the machine or a separate device may be configured to determine a likelihood that candidate audio data matches reference audio data.
G06F 17/00 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES Équipement ou méthodes de traitement de données ou de calcul numérique, spécialement adaptés à des fonctions spécifiques
G10L 19/018 - Mise en place d’un filigrane audio, c. à d. insertion de données inaudibles dans le signal audio
Techniques of content unification are disclosed. In some example embodiments, a computer-implemented method comprises: determining clusters based a comparison of a plurality of audio content using a first matching criteria, each cluster of the plurality of clusters comprising at least two audio content from the plurality of audio content; for each cluster of the plurality of clusters, determining a representative audio content for the cluster from the at least two audio content of the cluster; loading the corresponding representative audio content of each cluster into an index; matching the query audio content to one of the representative audio contents using a first matching criteria; determining the corresponding cluster of the matched representative audio content; and identifying a match between the query audio content and at least one of the audio content of the cluster of the matched representative audio content based on a comparison using a second matching criteria.
G06F 16/61 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/683 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
In one aspect, an example method to be performed by a computing device includes (a) receiving a request to use a camera of the computing device; (b) in response to receiving the request, (i) using a microphone of the computing device to capture audio content and (ii) using the camera of the computing device to capture an image; (c) identifying reference audio content that has at least a threshold extent of similarity with the captured audio content; and (d) outputting an indication of the identified reference audio content while displaying the captured image.
G06F 3/048 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI]
G06F 16/68 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06F 16/683 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G06F 16/783 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
H04N 23/61 - Commande des caméras ou des modules de caméras en fonction des objets reconnus
Systems and methods are provided for filtering at least one media content catalog based on criteria for a station library to generate a first list of candidate tracks for the station library, combining a similarity score and a popularity score for each track of the first list of candidate tracks to generate a total score for each track of the first list of candidate tracks, generating a list of top ranked tracks for the first genre, and returning the list of top ranked tracks of the first genre as part of the station library.
G06F 16/00 - Recherche d’informations; Structures de bases de données à cet effet; Structures de systèmes de fichiers à cet effet
G06F 16/61 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/68 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
63.
Methods and systems for automatically generating backdrop imagery for a graphical user interface
In one aspect, an example method for generating a candidate image for use as backdrop imagery for a graphical user interface is disclosed. The method includes receiving a raw image and determining an edge image from the raw image using edge detection. The method also includes identifying a candidate region of interest (ROI) in the raw image based on the candidate ROI enclosing a portion of the edge image having edge densities exceeding a threshold edge density. The method also includes manipulating the raw image relative to a backdrop imagery canvas for a graphical user interface based on a location of the candidate ROI within the raw image. The method also includes generating, based on the manipulating, a set of candidate backdrop images in which at least a portion of the candidate ROI occupies a preselected area of the backdrop imagery canvas, and storing the set of candidate backdrop images.
Methods and systems for automated video segmentation are disclosed. A sequence of video frames having video segments of contextually-related sub-sequences may be received. Each frame may be labeled according to segment and segment class. A video graph may be constructed in which each node corresponds to a different frame, and each edge connects a different pair of nodes, and is associated with a time between video frames and a similarity metric of the connected frames. An artificial neural network (ANN) may be trained to predict both labels for the nodes and clusters of the nodes corresponding to predicted membership among the segments, using the video graph as input to the ANN, and ground-truth clusters of ground-truth labeled nodes. The ANN may be further trained to predict segment classes of the predicted clusters, using the segment classes as ground truths. The trained ANN may be configured for application runtime video sequences.
Methods, apparatus, systems and articles of manufacture are disclosed methods and apparatus for audio equalization based on variant selection. An example apparatus includes a processor to obtain training data, the training data including a plurality of reference audio signals each associated with a variant of music and organize the training data into a plurality of entries based on the plurality of reference audio signals, a training model executor to execute a neural network model using the training data, and a model trainer to train the neural network model by updating at least one weight corresponding to one of the entries in the training data when the neural network model does not satisfy a training threshold.
Methods and apparatus are disclosed to generate a recommendation, including an attribute vector aggregator to form a resultant attribute vector based on an input set of attribute vectors, the set of attribute vectors containing at least one of a media attribute vector, an attendee attribute vector, an artist attribute vector, an event attribute vector, or a venue attribute vector, and a recommendation generator, the recommendation generator including: a vector comparator to perform a comparison between an input attribute vector and other attribute vectors and a recommendation compiler to create one or more recommendations of at least one of media, an artist, an event, or a venue based on the comparison.
G06F 16/635 - Filtrage basé sur des données supplémentaires, p.ex. sur des profils d'utilisateurs ou de groupes
G06F 16/638 - Présentation des résultats des requêtes
G06Q 30/06 - Transactions d’achat, de vente ou de crédit-bail
G06F 16/22 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/68 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
67.
Computing system with timing prediction and electronic program guide feature
In one aspect, an example system includes a first distributor server to cause transmission of first media associated with first data representing a first state of the first media scheduled to end at a scheduled end-time. The example system includes a receiver to obtain second data representing a second state of a past event corresponding to a subject of the first media, determine a predicted end-time of the first media based on a comparison of the first and second states, and after a determination that the predicted end-time is after at least one of the scheduled end-time of the first media or a scheduled start-time of second media, generate an electronic program guide (EPG) based on the predicted end-time. The example system also includes a second distributor server to cause transmission of a portion of second media to the receiver, the second distributor server different from the first distributor server.
H04N 21/262 - Ordonnancement de la distribution de contenus ou de données additionnelles, p.ex. envoi de données additionnelles en dehors des périodes de pointe, mise à jour de modules de logiciel, calcul de la fréquence de transmission de carrousel, retardement d
H04N 21/438 - Interfaçage de la voie descendante du réseau de transmission provenant d'un serveur, p.ex. récupération de paquets MPEG d'un réseau IP
H04N 21/458 - Ordonnancement de contenu pour créer un flux personnalisé, p.ex. en combinant une publicité stockée localement avec un flux d'entrée; Opérations de mise à jour, p.ex. pour modules de système d'exploitation
H04N 21/482 - Interface pour utilisateurs finaux pour la sélection de programmes
H04N 21/845 - Structuration du contenu, p.ex. décomposition du contenu en segments temporels
68.
Generating and distributing a replacement playlist
An embodiment may involve a server device transmitting, over a wide area network, a first playlist with a first duration to a client device. Possibly while the client device is playing out a current audio file of a first plurality of audio files in the playlist, the server device may receive an instruction from the client device and generate a second playlist. The second playlist may include references to a second plurality of audio files, where playout of the second plurality of audio files may have a duration that is less than the duration of the playout of the first plurality of audio files. The server device may transmit, over the wide area network, the second playlist to the client device. Reception of the second playlist at the client device may cause the audio player application to retrieve and play out the second plurality of audio files.
G06F 15/16 - Associations de plusieurs calculateurs numériques comportant chacun au moins une unité arithmétique, une unité programme et un registre, p.ex. pour le traitement simultané de plusieurs programmes
G06F 16/638 - Présentation des résultats des requêtes
G06F 16/635 - Filtrage basé sur des données supplémentaires, p.ex. sur des profils d'utilisateurs ou de groupes
G06F 16/951 - Indexation; Techniques d’exploration du Web
G06F 16/9535 - Adaptation de la recherche basée sur les profils des utilisateurs et la personnalisation
H04N 21/442 - Surveillance de procédés ou de ressources, p.ex. détection de la défaillance d'un dispositif d'enregistrement, surveillance de la bande passante sur la voie descendante, du nombre de visualisations d'un film, de l'espace de stockage disponible dans l
H04L 67/60 - Ordonnancement ou organisation du service des demandes d'application, p.ex. demandes de transmission de données d'application en utilisant l'analyse et l'optimisation des ressources réseau requises
G06F 16/9538 - Présentation des résultats des requêtes
G10L 13/00 - Synthèse de la parole; Systèmes de synthèse de la parole à partir de texte
H04L 67/06 - Protocoles spécialement adaptés au transfert de fichiers, p.ex. protocole de transfert de fichier [FTP]
H04L 67/10 - Protocoles dans lesquels une application est distribuée parmi les nœuds du réseau
H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p.ex. apprentissage des préféren
Example systems and methods for automated cover song identification are disclosed. An example apparatus includes at least one memory, machine-readable instructions, and one or more processors to execute the machine-readable instructions to at least execute a constant Q transform on time slices of first audio data to output constant Q transformed time slices, binarize the constant Q transformed time slices to output binarized and constant Q transformed time slices, execute a two-dimensional Fourier transform on time windows within the binarized and constant Q transformed time slices to output two-dimensional Fourier transforms of the time windows, generate a reference data structure based on a sequential order of the two-dimensional Fourier transforms, store the reference data structure in a database, and identify a query data structure associated with query audio data as a cover rendition of the audio data based on a comparison of the query and reference data structures.
G06F 16/683 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
Methods, apparatus, systems and articles of manufacture are disclosed to adjust device control information. The example apparatus comprises a light drive waveform generator to obtain metadata corresponding to media and generate device control information based on the metadata, the device control information to inform a lighting device to enable consecutive light pulses; an effect engine to apply an attack parameter and a decay parameter to consecutive light pulses corresponding to the device control information, the attack parameter and the decay parameter based on the metadata to affect a shape of the consecutive light pulses; and a color timeline generator to generate color information based on the metadata, the color information to inform the lighting device to change a color state.
Example methods and systems for indexing fingerprints are described. Fingerprints may be made up of sub-fingerprints, each of which corresponds to a frame of the media, which is a smaller unit of time than the fingerprint. In some example embodiments, multiple passes are performed. For example, a first pass may be performed that compares the sub-fingerprints of the query fingerprint with every thirty-second sub-fingerprint of the reference material to identify likely matches. In this example, a second pass is performed that compares the sub-fingerprints of the query fingerprint with every fourth sub-fingerprint of the likely matches to provide a greater degree of confidence. A third pass may be performed that uses every sub-fingerprint of the most likely matches, to help distinguish between similar references or to identify with greater precision the timing of the match. Each of these passes is amenable to parallelization.
G06F 16/44 - Navigation; Visualisation à cet effet
G06F 16/41 - Indexation; Structures de données à cet effet; Structures de stockage
G06F 16/48 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
72.
Machine-control of a device based on machine-detected transitions
Apparatus, methods, and systems that operate to provide interactive streaming content identification and processing are disclosed. An example apparatus includes a classifier to determine an audio characteristic value representative of an audio characteristic in audio; a transition detector to detect a transition between a first category and a second category by comparing the audio characteristic value to a threshold value among a set of threshold values, the set of threshold values corresponding to the first category and the second category; and a context manager to control a device to switch from a first fingerprinting algorithm to a second fingerprinting algorithm different than the first fingerprinting algorithm, responsive to the detected transition between the first category and the second category.
G10H 1/00 - INSTRUMENTS DE MUSIQUE ÉLECTROPHONIQUES; INSTRUMENTS DANS LESQUELS LES SONS SONT PRODUITS PAR DES MOYENS ÉLECTROMÉCANIQUES OU DES GÉNÉRATEURS ÉLECTRONIQUES, OU DANS LESQUELS LES SONS SONT SYNTHÉTISÉS À PARTIR D'UNE MÉMOIRE DE DONNÉES Éléments d'instruments de musique électrophoniques
H04L 65/612 - Diffusion en flux de paquets multimédias pour la prise en charge des services de diffusion par flux unidirectionnel, p.ex. radio sur Internet pour monodiffusion [unicast]
H04M 1/72454 - Interfaces utilisateur spécialement adaptées aux téléphones sans fil ou mobiles avec des moyens permettant d’adapter la fonctionnalité du dispositif dans des circonstances spécifiques en tenant compte des contraintes imposées par le contexte ou par l’environnement
H04N 21/414 - Plate-formes spécialisées de client, p.ex. récepteur au sein d'une voiture ou intégré dans un appareil mobile
H04N 21/422 - Périphériques d'entrée uniquement, p.ex. système de positionnement global [GPS]
H04N 21/439 - Traitement de flux audio élémentaires
H04N 21/44 - Traitement de flux élémentaires vidéo, p.ex. raccordement d'un clip vidéo récupéré d'un stockage local avec un flux vidéo en entrée ou rendu de scènes selon des graphes de scène MPEG-4
73.
Vehicle-based media system with audio ad and navigation-related action synchronization feature
In one aspect, an example method to be performed by a vehicle-based media system includes (a) receiving audio content; (b) causing one or more speakers to output the received audio content; (c) using a microphone of the vehicle-based media system to capture the output audio content; (d) identifying reference audio content that has at least a threshold extent of similarity with the captured audio content; (e) identifying a geographic location associated with the identified reference audio content; and (f) based at least on the identified geographic location associated with the identified reference audio content, outputting, via the user interface of the vehicle-based media system, a prompt to navigate to the identified geographic location.
H04H 20/26 - Dispositions de commutation de systèmes de distribution
G01C 21/36 - Dispositions d'entrée/sortie pour des calculateurs embarqués
H04H 20/62 - Dispositions spécialement adaptées à des applications spécifiques, p.ex. aux informations sur le trafic ou aux récepteurs mobiles à la radiodiffusion locale, p.ex. la radiodiffusion en interne aux systèmes de transport, p.ex. dans les véhicules
G10L 19/018 - Mise en place d’un filigrane audio, c. à d. insertion de données inaudibles dans le signal audio
H04W 4/02 - Services utilisant des informations de localisation
H04W 4/44 - Services spécialement adaptés à des environnements, à des situations ou à des fins spécifiques pour les véhicules, p.ex. communication véhicule-piétons pour la communication entre véhicules et infrastructures, p.ex. véhicule à nuage ou véhicule à domicile
H04R 3/12 - Circuits pour transducteurs pour distribuer des signaux à plusieurs haut-parleurs
H04N 21/414 - Plate-formes spécialisées de client, p.ex. récepteur au sein d'une voiture ou intégré dans un appareil mobile
H04N 21/422 - Périphériques d'entrée uniquement, p.ex. système de positionnement global [GPS]
Methods, apparatus, systems and articles of manufacture are disclosed for a broadcast profiling system. An example apparatus includes a memory storing instructions, and a processor configured to execute the instructions stored in the memory to compare a preference included in a user profile with a portion of a content station profile to determine whether the preference included in the user profile satisfies a threshold difference from the portion of the content station profile, in response to the threshold difference being satisfied, generate a station recommendation for a user associated with the user profile, and transmit an instruction to a device associated with the user, the instruction including the station recommendation, the instruction configured to cause a radio pre-set to be adjusted.
G06F 16/683 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G06F 16/638 - Présentation des résultats des requêtes
75.
Methods and apparatus to identify media that has been pitch shifted, time shifted, and/or resampled
Methods, apparatus, systems and articles of manufacture are disclosed to identify media that has been pitch shifted, time shifted, and/or resampled. An example apparatus includes: memory; instructions in the apparatus; and processor circuitry to execute the instructions to: transmit a fingerprint of an audio signal and adjusting instructions to a central facility to facilitate a query, the adjusting instructions identifying at least one of a pitch shift, a time shift, or a resample ratio; obtain a response including an identifier for the audio signal and information corresponding to how the audio signal was adjusted; and change the adjusting instructions based on the information.
G06F 16/683 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G06F 16/68 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06F 18/22 - Critères d'appariement, p.ex. mesures de proximité
76.
Classifying segments of media content using closed captioning
In one aspect, an example method includes (i) retrieving, from a text index, closed captioning repetition data for a segment of a sequence of media content; (ii) generating features using the closed captioning repetition data; (iii) providing the features as input to a classification model, wherein the classification model is configured to output classification data indicative of a likelihood of the features being characteristic of a program segment; (iv) obtaining the classification data output by the classification model; (v) determining a prediction of whether the segment is a program segment using the classification data; and (vi) storing the prediction for the segment in a database.
In an example implementation, a method is described. The implementation accesses first and second media clips. The implementation also matches a first fingerprint of the first media clip with a second fingerprint of the second media clip and determines an overlap of the first media clip with the second media clip. The implementation also, based on the overlap, merges the first and second media clips into a group of overlapping media clips, transmits, to a client device, data identifying the group of overlapping media clips and specifying a synchronization of the first media clip with the second media clip, and generates for display on a display device of the client computing device, a graphical user interface that identifies the group of overlapping media clips, specifies the synchronization of the first media clip with the second media clip, and allows access to, and manipulation of, the first and second media clips.
G11B 27/031 - Montage électronique de signaux d'information analogiques numérisés, p.ex. de signaux audio, vidéo
G11B 27/10 - Indexation; Adressage; Minutage ou synchronisation; Mesure de l'avancement d'une bande
G11B 27/28 - Indexation; Adressage; Minutage ou synchronisation; Mesure de l'avancement d'une bande en utilisant une information détectable sur le support d'enregistrement en utilisant des signaux d'information enregistrés par le même procédé que pour l'enregistrement principal
H04N 5/262 - Circuits de studio, p.ex. pour mélanger, commuter, changer le caractère de l'image, pour d'autres effets spéciaux
H04N 21/218 - Source du contenu audio ou vidéo, p.ex. réseaux de disques locaux
H04N 21/2743 - Hébergement vidéo de données téléchargées à partir du dispositif client
H04N 21/8549 - Création de résumés vidéo, p.ex. bande annonce
H04N 7/173 - Systèmes à secret analogiques; Systèmes à abonnement analogiques à deux voies, p.ex. l'abonné envoyant un signal de sélection du programme
G06F 16/40 - Recherche d’informations; Structures de bases de données à cet effet; Structures de systèmes de fichiers à cet effet de données multimédia, p.ex. diaporama comprenant des données d'image et d’autres données audio
G06F 16/958 - Organisation ou gestion de contenu de sites Web, p.ex. publication, conservation de pages ou liens automatiques
G06F 40/103 - Mise en forme, c. à d. modification de l’apparence des documents
G06F 40/106 - Affichage de la mise en page des documents; Prévisualisation
G06F 40/177 - Traitement de texte Édition, p.ex. insertion ou suppression utilisant des lignes réglées
G06F 40/14 - Documents en configuration arborescente
G06F 17/00 - TRAITEMENT ÉLECTRIQUE DE DONNÉES NUMÉRIQUES Équipement ou méthodes de traitement de données ou de calcul numérique, spécialement adaptés à des fonctions spécifiques
78.
Methods and apparatus for audio equalization based on variant selection
Methods, apparatus, systems and articles of manufacture are disclosed for audio equalization based on variant selection. An example apparatus to equalize audio includes at least one memory, machine readable instructions, and processor circuitry to at least one of instantiate or execute the machine readable instructions to train a neural network model to apply a first audio equalization profile to first audio associated with a first variant of media, and apply a second audio equalization profile to second audio associated with a second variant of media. The processor circuitry is to at least one of instantiate or execute the machine readable instructions to at least one of dispatch or execute the neural network model.
Methods, apparatus, systems and articles of manufacture are disclosed to identify media. An example method includes: in response to a query, generating an adjusted sample media fingerprint by applying an adjustment to a sample media fingerprint; comparing the adjusted sample media fingerprint to a reference media fingerprint; and in response to the adjusted sample media fingerprint matching the reference media fingerprint, transmitting information associated with the reference media fingerprint and the adjustment.
G06F 16/683 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
G06F 16/68 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
80.
Methods and apparatus to fingerprint an audio signal
Methods, apparatus, systems, and articles of manufacture to fingerprint an audio signal. An example apparatus disclosed herein includes an audio segmenter to divide an audio signal into a plurality of audio segments, a bin normalizer to normalize the second audio segment to thereby create a first normalized audio segment, a subfingerprint generator to generate a first subfingerprint from the first normalized audio segment, the first subfingerprint including a first portion corresponding to a location of an energy extremum in the normalized second audio segment, a portion strength evaluator to determine a likelihood of the first portion to change, and a portion replacer to, in response to determining the likelihood does not satisfy a threshold, replace the first portion with a second portion to thereby generate a second subfingerprint.
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
G11B 27/28 - Indexation; Adressage; Minutage ou synchronisation; Mesure de l'avancement d'une bande en utilisant une information détectable sur le support d'enregistrement en utilisant des signaux d'information enregistrés par le même procédé que pour l'enregistrement principal
81.
Music Release Disambiguation using Multi-Modal Neural Networks
Methods and systems for disambiguating musical artist names are disclosed. Musical-artist-release records (MARRs) may be input to a multi-modal artificial neural network (ANN). Each MARR may be associated with a musical release of an artist, and may include a release ID and an artist ID, and release data in categories including music media content and metadata categories including sub-definitive musician name of the artist and release subcategories. All n-tuples of MARRs may be formed, and for each n-tuple, the ANN may be applied concurrently to each MARR to generate a release feature vector (RFV) that includes a set of sub-feature vectors, each characterizing a different category of release data. For each n-tuple, the ANN may be trained to cluster in a multi-dimensional RFV space RFVs of the same artist ID, and to separate RFVs of different artist IDs. The MARRs and their RFVs may be stored in a release database.
In one aspect, an example method includes (i) extracting, by a computing system, features from media content; (ii) generating, by the computing system, repetition data for respective portions of the media content using the features, with repetition data for a given portion including a list of other portions of the media content matching the given portion; (iii) determining, by the computing system, transition data for the media content; (iv) selecting, by the computing system, a portion within the media content using the transition data; (v) classifying, by the computing system, the portion as either an advertisement segment or a program segment using repetition data for the portion; and (vi) outputting, by the computing system, data indicating a result of the classifying for the portion.
H04N 21/44 - Traitement de flux élémentaires vidéo, p.ex. raccordement d'un clip vidéo récupéré d'un stockage local avec un flux vidéo en entrée ou rendu de scènes selon des graphes de scène MPEG-4
In one aspect, an example method to be performed by a vehicle-based media system includes (a) receiving audio content; (b) causing one or more speakers to output the received audio content; (c) using a microphone of the vehicle-based media system to capture the output audio content; (d) identifying reference audio content that has at least a threshold extent of similarity with the captured audio content; (e) identifying visual content based at least on the identified reference audio content; and (f) outputting, via a user interface of the vehicle-based media system, the identified visual content.
H04H 20/62 - Dispositions spécialement adaptées à des applications spécifiques, p.ex. aux informations sur le trafic ou aux récepteurs mobiles à la radiodiffusion locale, p.ex. la radiodiffusion en interne aux systèmes de transport, p.ex. dans les véhicules
G10L 19/018 - Mise en place d’un filigrane audio, c. à d. insertion de données inaudibles dans le signal audio
H04W 4/02 - Services utilisant des informations de localisation
H04W 4/44 - Services spécialement adaptés à des environnements, à des situations ou à des fins spécifiques pour les véhicules, p.ex. communication véhicule-piétons pour la communication entre véhicules et infrastructures, p.ex. véhicule à nuage ou véhicule à domicile
G01C 21/36 - Dispositions d'entrée/sortie pour des calculateurs embarqués
H04R 3/12 - Circuits pour transducteurs pour distribuer des signaux à plusieurs haut-parleurs
G06Q 30/02 - Marketing; Estimation ou détermination des prix; Collecte de fonds
G10L 15/26 - Systèmes de synthèse de texte à partir de la parole
In one aspect, an example method includes (i) while a media playback device of a vehicle is playing back content received on a first channel, generating, by the media playback device, a query fingerprint using second content received on a second channel; (ii) sending, by the media playback device, the query fingerprint to a server that maintains a reference database containing a plurality of reference fingerprints; (iii) receiving, by the media playback device from the server, identifying information corresponding to a reference fingerprint of the plurality of reference fingerprints that matches the query fingerprint; and (iv) while the media playback device is playing back the first content received on the first channel, providing, by the media playback device for display, at least a portion of the identifying information.
G05B 19/42 - Systèmes d'enregistrement et de reproduction, c. à d. dans lesquels le programme est enregistré à partir d'un cycle d'opérations, p.ex. le cycle d'opérations étant commandé à la main, après quoi cet enregistrement est reproduit sur la même machine
G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p.ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comport
H04N 5/50 - Indicateurs d'accord; Réglage automatique de l'accord
85.
IDENTIFYING AND LABELING SEGMENTS WITHIN VIDEO CONTENT
In one aspect, an example method includes (i) obtaining fingerprint repetition data for a portion of video content, with the fingerprint repetition data including a list of other portions of video content matching the portion of video content and respective reference identifiers for the other portions of video content; (ii) identifying the portion of video content as a program segment rather than an advertisement segment based at least on a number of unique reference identifiers within the list of other portions of video content relative to a total number of reference identifiers within the list of other portions of video content; (iii) determining that the portion of video content corresponds to a program specified in an electronic program guide using a timestamp of the portion of video content; and (iv) storing an indication of the portion of video content in a data file for the program.
H04N 21/44 - Traitement de flux élémentaires vidéo, p.ex. raccordement d'un clip vidéo récupéré d'un stockage local avec un flux vidéo en entrée ou rendu de scènes selon des graphes de scène MPEG-4
H04N 21/8352 - Génération de données de protection, p.ex. certificats impliquant des données d’identification du contenu ou de la source, p.ex. "identificateur unique de matériel" [UMID]
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
86.
Dynamic content delivery based on vehicle navigational attributes
Systems and methods are disclosed for dynamic content delivery based on vehicle navigational attributes. An example apparatus includes at least one memory, machine readable instructions, and processor circuitry to execute the machine readable instructions to at least obtain navigational attributes from an electronic device of a vehicle via a network, determine a relevancy score for respective ones of first sporting event data items based on the navigational attributes, based on a determination that the navigational attributes correspond to a driving condition, identify a second sporting event data item of the first sporting event data items based on a relevancy score of the second sporting event data item corresponding to the driving condition, and transmit the second sporting event data item to the electronic device of the vehicle to cause the second sporting event data item to be presented.
G06F 15/16 - Associations de plusieurs calculateurs numériques comportant chacun au moins une unité arithmétique, une unité programme et un registre, p.ex. pour le traitement simultané de plusieurs programmes
G01C 21/26 - Navigation; Instruments de navigation non prévus dans les groupes spécialement adaptés pour la navigation dans un réseau routier
H04L 67/12 - Protocoles spécialement adaptés aux environnements propriétaires ou de mise en réseau pour un usage spécial, p.ex. les réseaux médicaux, les réseaux de capteurs, les réseaux dans les véhicules ou les réseaux de mesure à distance
B60W 40/08 - Calcul ou estimation des paramètres de fonctionnement pour les systèmes d'aide à la conduite de véhicules routiers qui ne sont pas liés à la commande d'un sous-ensemble particulier liés aux conducteurs ou aux passagers
G06F 16/9535 - Adaptation de la recherche basée sur les profils des utilisateurs et la personnalisation
G06F 16/9537 - Recherche à dépendance spatiale ou temporelle, p.ex. requêtes spatio-temporelles
G06F 16/2457 - Traitement des requêtes avec adaptation aux besoins de l’utilisateur
H04W 4/021 - Services concernant des domaines particuliers, p.ex. services de points d’intérêt, services sur place ou géorepères
H04W 4/40 - Services spécialement adaptés à des environnements, à des situations ou à des fins spécifiques pour les véhicules, p.ex. communication véhicule-piétons
G01C 21/36 - Dispositions d'entrée/sortie pour des calculateurs embarqués
H04L 67/52 - Services réseau spécialement adaptés à l'emplacement du terminal utilisateur
In one aspect, an example method includes (i) retrieving, from a text index, closed captioning repetition data for a segment of a sequence of media content; (ii) generating features using the closed captioning repetition data; (iii) providing the features as input to a classification model, wherein the classification model is configured to output classification data indicative of a likelihood of the features being characteristic of a program segment; (iv) obtaining the classification data output by the classification model; (v) determining a prediction of whether the segment is a program segment using the classification data; and (vi) storing the prediction for the segment in a database.
Example systems and methods for automated generation of banner images are disclosed. A program identifier associated with a particular media program may be received by a system, and used for accessing a set of iconic digital images and corresponding metadata associated with the particular media program. The system may select a particular iconic digital image for placing a banner of text associated with the particular media program, by applying an analytical model of banner-placement criteria to the iconic digital images. The system may apply another analytical model for banner generation to the particular iconic image to determine (i) dimensions and placement of a bounding box for containing the text, (ii) segmentation of the text for display within the bounding box, and (iii) selection of font, text size, and font color for display of the text. The system may store the particular iconic digital image and banner metadata specifying the banner.
In one aspect, an example method to be performed by a computing device includes (a) determining that a ride-sharing session is active; (b) in response to determining the ride-sharing session is active, using a microphone of the computing device to capture audio content; (c) identifying reference audio content that has at least a threshold extent of similarity with the captured audio content; (d) determining that the ride-sharing session is inactive; and (e) outputting an indication of the identified reference audio content.
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
G06F 16/68 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06F 16/683 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
A cover song identification method implemented by a computing system comprises receiving, by a computing system and from a user device, harmonic pitch class profile (HPCP) information that specifies one or more HPCP features associated with target audio content. A major chord profile feature and a minor chord profile feature associated with the target audio content are derived from the HPCP features. Machine learning logic of the computing system determines, based on the major chord profile feature and the minor chord profile feature, a relatedness between the target audio content and each of a plurality of audio content items specified in records of a database. Each audio content item is associated with cover song information. Cover song information associated with an audio content item having a highest relatedness to the target audio content is communicated to the user device.
G10L 25/90 - Détermination de la hauteur tonale des signaux de parole
G10L 19/022 - Constitution de blocs, c. à d. regroupement d’échantillons temporels; Choix des fenêtres d’analyse; Facteur de recouvrement
G06F 16/683 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
A method implemented by a computing system comprises generating, by the computing system, a fingerprint comprising a plurality of bin samples associated with audio content. Each bin sample is specified within a frame of the fingerprint and is associated with one of a plurality of non-overlapping frequency ranges and a value indicative of a magnitude of energy associated with a corresponding frequency range. The computing system removes, from the fingerprint, a plurality of bin samples associated with a frequency sweep in the audio content.
G10L 19/018 - Mise en place d’un filigrane audio, c. à d. insertion de données inaudibles dans le signal audio
G10L 25/54 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation pour la recherche
G10L 25/27 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par la technique d’analyse
G10L 25/72 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour transmettre les résultats de l’analyse
G10L 25/18 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par le type de paramètres extraits les paramètres extraits étant l’information spectrale de chaque sous-bande
G10L 19/028 - Remplacement du bruit, c. à d. en substituant des sources de bruit à des composantes spectrales non-tonales
92.
Methods and apparatus for efficient media indexing
Methods, apparatus, systems and articles of manufacture are disclosed for efficient media indexing. An example method disclosed herein includes means for initiating a list of hash seeds, the list of hash seeds including at least a first hash seed value and a second hash seed value among other hash seed values, means for generating to generate a first bucket distribution based on the first hash seed value and a first hash function and generate a second bucket distribution based on the second hash seed value used in combination with the first hash seed value, means for determining to determine a first entropy value of the first bucket distribution, wherein data associated with the first bucket distribution is stored in a first hash table and determine a second entropy value of the second bucket distribution.
Example methods and systems for inserting information into playing content are described. In some example embodiments, the methods and systems may identify a break in content playing via a playback device, select an information segment representative of information received by the playback device to present during the identified break, and insert the information segment into the content playing via the playback device upon an occurrence of the identified break.
G06F 16/683 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G11B 27/11 - Indexation; Adressage; Minutage ou synchronisation; Mesure de l'avancement d'une bande en utilisant une information non détectable sur le support d'enregistrement
Accurately detection of logos in media content on media presentation devices is addressed. Logos and products are detected in media content produced in retail deployments using a camera. Logo recognition uses saliency analysis, segmentation techniques, and stroke analysis to segment likely logo regions. Logo recognition may suitably employ feature extraction, signature representation, and logo matching. These three approaches make use of neural network based classification and optical character recognition (OCR). One method for OCR recognizes individual characters then performs string matching. Another OCR method uses segment level character recognition with N-gram matching. Synthetic image generation for training of a neural net classifier and utilizing transfer learning features of neural networks are employed to support fast addition of new logos for recognition.
G06V 10/764 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant la classification, p.ex. des objets vidéo
G06V 10/82 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant les réseaux neuronaux
G06V 10/46 - Descripteurs pour la forme, descripteurs liés au contour ou aux points, p.ex. transformation de caractéristiques visuelles invariante à l’échelle [SIFT] ou sacs de mots [BoW]; Caractéristiques régionales saillantes
G06T 7/33 - Détermination des paramètres de transformation pour l'alignement des images, c. à d. recalage des images utilisant des procédés basés sur les caractéristiques
G06V 10/50 - Extraction de caractéristiques d’images ou de vidéos en utilisant l’addition des valeurs d’intensité d’image; Analyse de projection
95.
System And Method For Multi-Modal Podcast Summarization
In one aspect, a method includes receiving podcast content, generating a transcript of at least a portion of the podcast content, and parsing the podcast content to (i) identify audio segments within the podcast content, (ii) determine classifications for the audio segments, (iii) identify audio segment offsets, and (iv) identify sentence offsets. The method also includes based on the audio segments, the classifications, the audio segment offsets, and the sentence offsets, dividing the generated transcript into text sentences and, from among the text sentences of the divided transcript, selecting a group of text sentences for use in generating an audio summary of the podcast content. The method also includes based on timestamps at which the group of text sentences begin in the podcast content, combining portions of audio in the podcast content that correspond to the group of text sentences to generate an audio file representing the audio summary.
A machine may form all or part of a network-based system configured to provide media service to one or more user devices. The machine may be configured to define a station library within a larger collection of media files. In particular, the machine may access metadata that describes a seed that forms the basis on which the station library is to be defined. The machine may determine a genre composition for the station library based on the metadata. The machine may generate a list of media files from the metadata based on a relevance of each media file to the station library. The machine may determine the relevance of each media file based on a similarity of the media file to the genre composition of the station library as well as a comparison of metadata describing the media file to the accessed metadata that describes the seed.
G06F 16/48 - Recherche caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
H04L 65/612 - Diffusion en flux de paquets multimédias pour la prise en charge des services de diffusion par flux unidirectionnel, p.ex. radio sur Internet pour monodiffusion [unicast]
Techniques of providing motion video content along with audio content are disclosed. In some example embodiments, a computer-implemented system is configured to perform operations comprising: receiving primary audio content; determining that at least one reference audio content satisfies a predetermined similarity threshold based on a comparison of the primary audio content with the at least one reference audio content; for each one of the at least one reference audio content, identifying motion video content based on the motion video content being stored in association with the one of the at least one reference audio content and not stored in association with the primary audio content; and causing the identified motion video content to be displayed on a device concurrently with a presentation of the primary audio content on the device.
H04N 21/439 - Traitement de flux audio élémentaires
H04N 21/43 - Traitement de contenu ou données additionnelles, p.ex. démultiplexage de données additionnelles d'un flux vidéo numérique; Opérations élémentaires de client, p.ex. surveillance du réseau domestique ou synchronisation de l'horloge du décodeur; Intergiciel de client
H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p.ex. apprentissage des préféren
Methods, apparatus, systems and articles of manufacture are disclosed to determine audio quality. Example apparatus disclosed herein include an equalization (EQ) model query generator to generate a query to a neural network, the query including a representation of a sample of an audio signal. Example apparatus disclosed herein also include an EQ analyzer to access a plurality of equalization settings determined by the neural network based on the query; and compare the equalization settings to an equalization threshold to determine if the audio signal is to be removed from subsequent processing.
G10L 25/60 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation pour mesurer la qualité des signaux de voix
G06F 16/683 - Recherche de données caractérisée par l’utilisation de métadonnées, p.ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement utilisant des métadonnées provenant automatiquement du contenu
G10L 25/18 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par le type de paramètres extraits les paramètres extraits étant l’information spectrale de chaque sous-bande
G10L 25/30 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes caractérisées par la technique d’analyse utilisant des réseaux neuronaux
H04R 3/04 - Circuits pour transducteurs pour corriger la fréquence de réponse
99.
System and method for podcast repetitive content detection
In one aspect, a method includes detecting a fingerprint match between query fingerprint data representing at least one audio segment within podcast content and reference fingerprint data representing known repetitive content within other podcast content, detecting a feature match between a set of audio features across multiple time-windows of the podcast content, and detecting a text match between at least one query text sentences from a transcript of the podcast content and reference text sentences, the reference text sentences comprising text sentences from the known repetitive content within the other podcast content. The method also includes responsive to the detections, generating sets of labels identifying potential repetitive content within the podcast content. The method also includes selecting, from the sets of labels, a consolidated set of labels identifying segments of repetitive content within the podcast content, and responsive to selecting the consolidated set of labels, performing an action.
G10L 25/51 - Techniques d'analyses de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation
G10L 17/02 - Opérations de prétraitement, p.ex. sélection de segment; Représentation ou modélisation de motifs, p.ex. fondée sur l’analyse linéaire discriminante [LDA] ou les composantes principales; Sélection ou extraction des caractéristiques
G10L 17/06 - Techniques de prise de décision; Stratégies d’alignement de motifs
G10L 25/90 - Détermination de la hauteur tonale des signaux de parole
100.
Methods and apparatus to improve detection of audio signatures
Methods, apparatus, systems and articles of manufacture are disclosed to improve detection of audio signatures. An example apparatus includes at least one memory, instructions in the apparatus, and processor circuitry to execute the instructions to: determine a first time difference of arrival for a first audio sensor of a meter and a second audio sensor of the meter based on a first audio recording from the first audio sensor and a second audio recording from the second audio sensor; determine a second time difference of arrival for the first audio sensor and a third audio sensor of the meter based on the first audio recording and a third audio recording from the third audio sensor; determine a match by comparing the first time difference of arrival to i) a first virtual source time difference of arrival and ii) a second virtual source time difference of arrival; in response to determining that the first time difference of arrival matches the first virtual source time difference of arrival, identify a first virtual source location as the location of a media presentation device presenting media; and remove the second audio recording to reduce a computational burden on the processor.
G01S 5/24 - Position d'un goniomètre unique obtenue par détermination de la direction de plusieurs sources espacées d'emplacement connu
H04R 1/40 - Dispositions pour obtenir la fréquence désirée ou les caractéristiques directionnelles pour obtenir la caractéristique directionnelle désirée uniquement en combinant plusieurs transducteurs identiques