Aller au contenu principal

Dossier Unitree — page 2

119 articles · page 2 sur 3

Unitree, l'humanoïde et quadrupède chinois low-cost : G1, H1, R1, prix grand public sur AliExpress, démonstrations agressives en vidéo et impact sur les concurrents premium.

PL-Universe Robotics dévoile sa gamme de produits d'IA physique industrielle 2.0
51Pandaily Chine/AsieActu

PL-Universe Robotics dévoile sa gamme de produits d'IA physique industrielle 2.0

PL-Universe Robotics, start-up chinoise créée il y a seize mois, a présenté ce qu'elle nomme sa "Product Matrix 2.0", articulée autour de deux produits : AcCI, une solution de collecte de données multi-modale affichant une précision annoncée sub-millimétrique, et Dabai, un module robotique dédié au chargement et déchargement industriel intelligent. AcCI combine des interfaces de contrôle VR, maître-esclave et joystick, et capture simultanément des données de force, de couple, de pose, de retour tactile et de vision en boucle fermée. L'annonce s'accompagne d'une stratégie d'écosystème qualifiée d'"all-domain symbiotic" et d'un appel ouvert à des partenaires industriels mondiaux. L'enjeu déclaré est le goulot d'étranglement des données dans le déploiement à grande échelle de l'IA physique, un problème que le secteur reconnaît largement. Une plateforme de collecte end-to-end multi-modale, si elle tient ses promesses, répondrait à un besoin concret pour les intégrateurs cherchant à constituer des jeux de données de démonstration de qualité industrielle. Cependant, cette annonce reste au stade déclaratif : aucun client n'est nommé, aucun volume de déploiement n'est communiqué, et la précision sub-millimétrique est avancée sans conditions de test ni contexte de tâche précisés, ce qui rend toute évaluation indépendante impossible pour l'instant. PL-Universe s'inscrit dans un écosystème très concurrentiel : en Chine, Unitree Robotics et DEEP Robotics avancent sur le déploiement d'humanoïdes industriels, tandis qu'à l'international, Physical Intelligence avec Pi-0, Apptronik et 1X Technologies ont déjà des bases installées ou des contrats actifs sur des pipelines de données robotiques. La société cible un marché qu'elle évalue à "plusieurs milliers de milliards de yuans", une projection ambitieuse et invérifiable à ce stade. Aucune tarification ni date de disponibilité commerciale n'a été précisée ; la prochaine étape annoncée est le recrutement de partenaires d'écosystème à l'échelle mondiale, selon un modèle stratégique que l'entreprise décrit comme "1+N+infini".

1 source
EFGCL : apprentissage du mouvement dynamique par curriculum guidé par forces externes, inspiré du spotting
52arXiv cs.RO 

EFGCL : apprentissage du mouvement dynamique par curriculum guidé par forces externes, inspiré du spotting

Des chercheurs ont publié sur arXiv (réf. 2605.10063) une méthode baptisée EFGCL (External Force Guided Curriculum Learning) pour entraîner des robots à pattes à exécuter des mouvements dynamiques complexes de tout le corps via apprentissage par renforcement. L'idée centrale emprunte au "spotting" en gymnastique artistique : comme un coach qui tient physiquement l'athlète lors des premiers essais, la méthode introduit des forces externes assistives directement dans la boucle d'entraînement simulé. Les expériences portent sur un robot quadrupède réalisant trois tâches : saut vertical (Jump), saut arrière (Backflip) et saut latéral (Lateral-Flip). Sur la tâche Jump, EFGCL réduit le temps d'apprentissage d'environ un facteur deux par rapport au RL conventionnel. Plus significatif encore, Backflip et Lateral-Flip, que les méthodes RL standard ne parviennent tout simplement pas à apprendre, deviennent accessibles. Les politiques résultantes ont été transférées et déployées sur un robot réel, avec des comportements jugés cohérents avec ceux observés en simulation. L'intérêt technique principal est double. Premièrement, la méthode n'exige ni reward shaping spécifique à la tâche ni trajectoires de référence issues de motion capture, deux dépendances coûteuses qui compliquent habituellement le pipeline. Deuxièmement, en permettant à l'agent d'expérimenter des exécutions réussies très tôt dans l'entraînement, EFGCL contourne le problème classique de l'exploration inefficace dans les espaces à haut risque d'échec. La validation sim-to-real, bien que présentée sur un seul robot quadrupède dans un contexte académique contrôlé, apporte un signal positif sur la transférabilité des politiques apprises avec forces assistives vers des conditions physiques réelles, une question encore largement ouverte pour les mouvements acrobatiques. Le domaine du whole-body motion learning pour robots à pattes est en pleine activité depuis plusieurs années, porté notamment par les travaux de l'ETH Zurich sur ANYmal et par Unitree (G1, H1) côté matériel accessible pour la recherche. Boston Dynamics, avec Atlas, démontre régulièrement des mouvements dynamiques impressionnants, mais son pipeline repose largement sur des trajectoires optimisées à la main. L'approche curriculum learning guidé par forces s'inscrit dans une tendance plus large visant à rendre le RL applicable sans données de démonstration, aux côtés de méthodes comme le curriculum automatique ou l'imitation d'adversaire. Il s'agit d'une publication académique préprint, sans annonce de déploiement industriel ni de partenariat commercial associé.

RecherchePaper
1 source
Des priors de diffusion avec contraintes pour une locomotion quadrupède haute fidélité et polyvalente
53arXiv cs.RO 

Des priors de diffusion avec contraintes pour une locomotion quadrupède haute fidélité et polyvalente

Une équipe de chercheurs publie Diff-CAST (Diffusion-guided Constraint-Aware Symmetric Tracking), un nouveau cadre de prior de mouvement pour la locomotion quadrupède biomimétique, déposé le 12 mai 2026 en preprint sur arXiv (2605.08804). La méthode substitue les modèles de diffusion aux discriminateurs GAN classiquement utilisés dans les pipelines combinant apprentissage par renforcement (RL) et imitation learning. L'architecture intègre deux composants : le SACC (Symmetric Augmented Command Conditioning), conçu pour corriger les dérives involontaires de cap lors de manœuvres complexes hors distribution, et un bloc de RL contraint (Constrained RL) chargé de garantir la conformité aux limites dynamiques des actionneurs lors du passage sur matériel physique, dans un schéma global baptisé Sim2Re. Le verrou que Diff-CAST cherche à lever est documenté dans la communauté : à mesure que les jeux de données de mouvement grossissent et se diversifient (sources multiples, données non curées), les discriminateurs GAN s'effondrent en mode collapse, incapables de modéliser des distributions multi-modales complexes. Les modèles de diffusion, dont la supériorité sur ce point est établie en génération d'images et de trajectoires, constituent une alternative logique. Si les expériences sur quadrupède réel confirment les résultats annoncés, cela ouvrirait la voie à un scaling massif de datasets hétérogènes sans perte de diversité comportementale, notamment pour des transitions fluides entre marche, trot et récupération. Il convient cependant de souligner que le papier est un preprint non évalué par les pairs, et que le gap sim-to-real reste à valider indépendamment. La locomotion quadrupède à base de RL est un domaine consolidé depuis les travaux d'ANYbotics sur ANYmal et du laboratoire Robotic Systems Lab d'ETH Zurich, prolongés par des équipes de Carnegie Mellon et Berkeley. Unitree (Go2, H1) et Boston Dynamics industrialisent ces méthodes, tandis que le secteur académique cherche à réduire la dépendance aux données de capture de mouvement coûteuses au profit de datasets non curés. Diff-CAST s'inscrit précisément dans cette tendance. Les prochaines étapes attendues sont la publication du code source, des benchmarks standardisés sur des plateformes comme Isaac Lab ou legged gym, et une validation multi-robots au-delà du quadrupède utilisé dans les expériences reportées.

RecherchePaper
1 source
AsyncVLA : correspondance de flux asynchrone pour les modèles vision-langage-action (VLA)
54arXiv cs.RO 

AsyncVLA : correspondance de flux asynchrone pour les modèles vision-langage-action (VLA)

Une équipe de chercheurs a publié AsyncVLA (arXiv:2511.14148), un cadre pour modèles Vision-Language-Action (VLA) qui remplace le flow matching synchrone (SFM) conventionnel par un mécanisme asynchrone (AFM) à calendrier temporel non uniforme. Là où le SFM applique un pas de temps identique à tous les tokens d'action, AsyncVLA ajuste ce calendrier en fonction du contexte actionnel en cours, et intègre un module "confidence rater" qui évalue la fiabilité de chaque token généré pour déclencher une auto-correction sélective avant exécution. La procédure d'entraînement est unifiée: un seul modèle peut opérer en mode SFM ou AFM, avec une meilleure utilisation du cache KV. Sur les benchmarks de manipulation robotique en simulation et en conditions réelles, AsyncVLA surpasse les méthodes existantes avec une efficacité accrue en données d'entraînement. Le code est publié en open source sur GitHub. L'instabilité des VLA sur les tâches longue durée (long-horizon) est l'un des principaux freins à leur déploiement industriel: en SFM, une erreur d'action se propage en cascade jusqu'à l'échec complet de la séquence. La capacité d'auto-correction d'AsyncVLA adresse directement ce point, ce qui intéresse les intégrateurs et les équipes robotiques confrontées à des cycles opératoires de plusieurs minutes. L'efficacité en données est un argument complémentaire: entraîner des VLA compétitifs nécessite aujourd'hui des datasets massifs et coûteux, et une méthode qui atteint de meilleures performances avec moins de données réduit la barrière d'entrée. Il faut toutefois nuancer: le papier se limite à des benchmarks de manipulation sans publier de chiffres de déploiement à l'échelle, de temps de cycle réels, ni de résultats sur une flotte opérationnelle. Les VLA à base de flow matching ont été popularisés par Pi-0 de Physical Intelligence et GR00T N2 de NVIDIA en 2024, établissant un standard de génération d'actions continues pour la robotique généraliste. AsyncVLA s'inscrit dans une tendance de raffinement algorithmique de ces architectures, aux côtés d'approches comme OpenVLA, la distillation de politique diffusion, ou les modèles hybrides VLA et planificateur symbolique. Son avantage comparatif est la compatibilité directe avec les pipelines SFM existants, sans rupture architecturale majeure, ce qui facilite l'adoption par les équipes déjà engagées sur ces bases. Les prochaines étapes crédibles seraient une validation sur des robots humanoïdes (Figure, 1X, Unitree) ou des bras industriels en production réelle, là où la robustesse long-horizon reste le goulot d'étranglement dominant.

💬 Le problème de propagation d'erreur en cascade dans les VLA, c'est exactement ce qui bloque le déploiement industriel depuis des mois. AsyncVLA l'attaque frontalement avec un mécanisme de correction sélective avant exécution, et la compatibilité directe avec les pipelines SFM existants (Pi-0, GR00T) rend l'adoption crédible sans tout casser. Reste à voir ce que ça donne sur des cycles de 10 minutes en prod réelle, pas juste en simulation.

IA physiqueOpinion
1 source
SF Express, Sequoia China et IDG investissent dans une licorne en robots humanoïdes issue de Tsinghua
55Pandaily 

SF Express, Sequoia China et IDG investissent dans une licorne en robots humanoïdes issue de Tsinghua

Wujie Power (无界动力), spin-off de l'université Tsinghua spécialisé dans les robots humanoïdes à usage général, a bouclé un tour de financement impliquant des investisseurs chinois et internationaux de premier rang. Ce tour est co-dirigé par Envision Group et le Fonds d'investissement en intelligence artificielle de Pékin, avec la participation récurrente de Sequoia China, Linear Capital, Hillhouse Ventures, Baidu Ventures et Yunshan Capital. La société est par ailleurs sur le point de clôturer une tranche additionnelle dite "angel+++" auprès de capitaux américains et en renminbi, portant le financement total au stade angel à plus de 200 millions de dollars. Ce tour intervient dans la continuité d'un tour stratégique d'un milliard de yuans finalisé en mars 2026. Simultanément, StarTrace (星动纪元), autre constructeur d'humanoïdes issu du même écosystème d'investisseurs, a clôturé un tour dépassant également 200 millions de dollars. Le géant de la logistique SF Express figure parmi les nouveaux entrants, rejoignant le capital à l'intersection de la robotique et de l'automatisation de la chaîne d'approvisionnement. L'annonce ne précise ni la valorisation exacte ni les spécifications techniques du robot : pas de charge utile, de degrés de liberté ou de cadence opérationnelle communiqués. Ces levées consécutives confirment l'appétit persistant du capital-risque chinois pour l'IA incarnée (embodied AI), mais signalent surtout un mouvement stratégique côté industrie. La présence de SF Express au capital est un indicateur concret : un opérateur logistique de cette envergure n'engage pas plusieurs dizaines de millions sans anticiper un horizon d'intégration dans ses entrepôts ou centres de tri. Pour les décideurs B2B, cela suggère que la logistique reste le premier terrain de déploiement visé par les humanoïdes chinois en 2026-2027, avant le manufacturing. Les deux tours simultanés (Wujie Power + StarTrace) indiquent également une stratégie de portefeuille coordonnée, plutôt qu'une conviction isolée sur un seul acteur. Wujie Power s'inscrit dans la vague de spin-offs académiques issus de Tsinghua ces deux dernières années, aux côtés d'acteurs comme Unitree Robotics, Agibot et UBTECH, qui ont tous intensifié leurs levées et annonces produit en 2025-2026. Face à eux, les constructeurs occidentaux Figure AI, Agility Robotics (désormais dans l'orbite d'Amazon) et 1X Technologies avancent sur leurs propres déploiements, tandis qu'en Europe Enchanted Tools et Wandercraft restent à plus petite échelle de capitalisation. La course sino-américaine sur l'humanoïde s'accélère avec des capitaux publics et privés engagés des deux côtés. Les prochaines étapes probables pour Wujie Power sont la clôture de la tranche angel+++ et l'annonce de premiers pilotes industriels, possiblement en logistique avec SF Express en client-investisseur.

UELa concentration de plus de 400 M$ sur deux tours simultanés chez des constructeurs d'humanoïdes chinois accentue l'écart de financement avec Enchanted Tools et Wandercraft, fragilisant le positionnement concurrentiel européen à moyen terme.

Chine/AsieOpinion
1 source
Vers un contrôle adaptatif des robots humanoïdes par distillation multi-comportements et affinage renforcé
56arXiv cs.RO 

Vers un contrôle adaptatif des robots humanoïdes par distillation multi-comportements et affinage renforcé

Une équipe de chercheurs propose Adaptive Humanoid Control (AHC), un framework de contrôle locomoteur pour humanoïdes publié sur arXiv (2511.06371v3). Le problème de départ est structurel : les méthodes dominantes entraînent une politique séparée pour chaque compétence (se relever, marcher, courir, sauter), générant des contrôleurs rigides qui échouent dès que le terrain devient irrégulier. AHC y répond en deux phases : d'abord, plusieurs politiques primaires sont entraînées puis fusionnées par distillation multi-comportements en un contrôleur unique capable de commuter dynamiquement selon le contexte ; ensuite, un affinage par renforcement avec retours en ligne consolide l'adaptabilité sur terrains variés. Le système est validé en simulation et en conditions réelles sur le robot Unitree G1 d'Unitree Robotics. Pour les intégrateurs et les décideurs industriels, la promesse est concrète : un seul contrôleur couvrant l'ensemble des comportements locomoteurs réduit la complexité opérationnelle et supprime les transitions manuelles entre modes. Du côté de la recherche, le résultat le plus notable est que la distillation combinée à un fine-tuning par RL en ligne permet de réduire partiellement le sim-to-real gap sans ré-entraînement complet. La réserve à formuler : le papier ne publie pas de métriques quantitatives détaillées (taux de succès par terrain, fréquence de chute), ce qui rend difficile la comparaison objective avec d'autres approches. Le Unitree G1 (1,27 m, environ 35 kg, 16 000 dollars) est devenu depuis 2024 une plateforme de recherche de référence pour ce type de travaux. AHC s'inscrit dans une compétition internationale où Physical Intelligence (Pi-0), NVIDIA (GR00T N2), Figure (Helix) et Boston Dynamics cherchent tous à produire des politiques locomotrices généralisables hors environnement contrôlé. L'approche par distillation multi-politiques rappelle les travaux de curriculum learning menés à Berkeley et CMU, et l'affinage par RL en ligne emprunte aux méthodologies RLHF adaptées à la robotique physique. Aucun partenariat industriel ni calendrier de déploiement n'est annoncé ; le projet en est au stade de la démonstration académique.

RecherchePaper
1 source
RLDX-1 : rapport technique
57arXiv cs.RO 

RLDX-1 : rapport technique

Un rapport technique déposé sur arXiv le 6 mai 2026 présente RLDX-1, une politique robotique généraliste conçue pour la manipulation dextre complexe. L'architecture centrale, baptisée Multi-Stream Action Transformer (MSAT), intègre des modalités hétérogènes via des flux spécialisés par modalité couplés à une attention croisée inter-modale (cross-modal joint self-attention). Cette conception cible trois lacunes persistantes des modèles Vision-Langage-Action (VLA) actuels : la conscience du mouvement (motion awareness), la prise de décision avec mémoire contextuelle, et l'intégration de retours sensoriels physiques. Le système combine cette architecture avec des choix de conception système : génération synthétique de données d'entraînement pour les scénarios de manipulation rares, procédures d'apprentissage spécialisées pour un geste proche du mouvement humain, et optimisations d'inférence pour le déploiement temps réel. Sur le benchmark ALLEX, conçu pour évaluer le contrôle de robots humanoïdes à haut degré de liberté (DoF) sous des exigences fonctionnelles variées, RLDX-1 atteint un taux de succès de 86,8 % contre environ 40 % pour π0.5 (Physical Intelligence) et GR00T N1.6 (NVIDIA), soit un écart de plus de 45 points. Ces résultats, obtenus à la fois en simulation et sur des tâches en environnement réel, indiquent que l'architecture MSAT surpasse les VLA de référence sur des tâches impliquant des contacts riches, des dynamiques rapides et des contraintes sensorimotrices multiples. C'est précisément sur ce segment -- la manipulation dextre en conditions réelles, pas en démonstration contrôlée -- que le fossé entre recherche et déploiement industriel reste le plus large, et que ces chiffres méritent une validation indépendante avant d'être pris au pied de la lettre. Les VLA ont connu une accélération marquée depuis 2024, portés par RT-2 (Google DeepMind), OpenVLA, puis la série π0/π0.5 de Physical Intelligence et la famille GR00T de NVIDIA. RLDX-1 s'inscrit dans cette dynamique en cherchant à dépasser le paradigme "versatilité générale" pour cibler des capacités fonctionnelles élargies sur des robots humanoïdes haute-DoF. Aucune affiliation institutionnelle ou entreprise n'est clairement identifiée dans l'abstract publié -- le rapport reste à ce stade un preprint non revu par les pairs, sans annonce de déploiement ni calendrier de commercialisation. Les étapes naturelles suivantes incluront une validation indépendante des benchmarks et une évaluation sur des plateformes humanoïdes commerciales comme celles de Figure, Unitree ou Agility Robotics.

IA physiqueOpinion
1 source
Contrôle de hauteur et planification optimale du couple pour le saut de robots bipèdes à roues
58arXiv cs.RO 

Contrôle de hauteur et planification optimale du couple pour le saut de robots bipèdes à roues

Des chercheurs présentent dans un preprint arXiv (2605.03302, mai 2026) deux méthodes combinées pour contrôler avec précision la hauteur de saut des robots bipèdes à roues. Le constat de départ est pratique : face à l'incertitude dynamique, ces plateformes sautent systématiquement plus haut que nécessaire pour garantir la sécurité, ce qui génère des pertes moteur évitables, des forces de contact au sol excessives et une surconsommation énergétique. La première contribution, le modèle W-JBD (Wheeled-Bipedal Jumping Dynamical), permet de cibler précisément une hauteur de saut, mais produit une consigne de couple en échelon incompatible avec les actionneurs réels. La seconde, BOTP (Bayesian Optimization for Torque Planning), optimise la trajectoire de couple sans nécessiter de modèle dynamique précis et converge en 40 itérations en moyenne. Validée sur le simulateur Webots, BOTP réduit l'erreur de hauteur de 82,3 % et la consommation énergétique de 26,9 % par rapport à la baseline, tout en produisant une courbe de couple continue. Ce résultat est pertinent pour les intégrateurs qui déploient des robots bipèdes à roues dans des environnements industriels ou logistiques : l'efficacité énergétique conditionne directement l'autonomie embarquée, et la reproductibilité du saut détermine la fiabilité du franchissement d'obstacles. Le fait que BOTP fonctionne sans modèle dynamique précis est un avantage opérationnel concret, car calibrer un modèle complet sur chaque variante de plateforme est coûteux. L'approche bayésienne converge rapidement, ce qui la rend adaptée à une validation sur robot réel avec un nombre limité d'essais physiques, un point critique pour réduire l'usure mécanique. Cela dit, les auteurs n'ont pas encore franchi le sim-to-real : l'ensemble des résultats reste en simulation, et le gap entre Webots et un vrai terrain reste à quantifier. Les robots bipèdes à roues constituent une classe en expansion : Unitree B2-W, l'ETH Zurich avec Ascento, ou encore les plateformes Handle/mobility de Boston Dynamics combinent la vitesse des roues avec la capacité de franchissement des pattes. Le planning de couple par optimisation bayésienne s'inscrit dans une tendance plus large qui vise à remplacer les contrôleurs MPC classiques, trop dépendants de modèles précis, par des méthodes d'optimisation légères adaptables à la production. Les auteurs annoncent comme prochaine étape la validation expérimentale sur robot physique en s'appuyant sur les trajectoires simulées pour réduire l'espace de recherche, ce qui devrait permettre de confirmer, ou non, la tenue des gains annoncés hors simulation.

UELes travaux pourraient intéresser les équipes de recherche européennes sur les robots bipèdes à roues (notamment ETH Zurich / Ascento), mais l'impact reste indirect, sans contribution ni déploiement européen identifié.

RecherchePaper
1 source
BifrostUMI : des démonstrations sans robot pour la manipulation corps entier des humanoïdes
59arXiv cs.RO 

BifrostUMI : des démonstrations sans robot pour la manipulation corps entier des humanoïdes

Une équipe de chercheurs a publié le 6 mai 2026 BifrostUMI (arXiv:2605.03452), un framework de collecte de données sans robot dédié à l'entraînement de politiques visuomotrices full-body pour robots humanoïdes. Le principe : un opérateur humain équipé d'un casque VR léger réalise des démonstrations manuelles, capturées sous forme de trajectoires de points-clés (keypoints) épars, tandis que des caméras montées au niveau des poignets enregistrent simultanément les données visuelles. Ces données multimodales alimentent ensuite un réseau de politique haut niveau qui apprend à prédire les trajectoires futures conditionnées aux features visuelles observées. Un pipeline de retargeting traduit ensuite ces trajectoires sur la morphologie du robot cible, qui les exécute via un contrôleur corps entier (whole-body controller). L'efficacité du framework est validée sur deux scénarios expérimentaux distincts, sans que les auteurs ne précisent les benchmarks quantitatifs de performance (temps de cycle, taux de succès par tâche) dans le résumé disponible. L'enjeu est direct pour quiconque tente de scaler l'entraînement d'humanoïdes : la télé-opération robotique reste le goulot d'étranglement principal de la collecte de données. Elle exige un accès permanent au hardware, un opérateur qualifié, et génère un flux de données lent et coûteux. BifrostUMI découple complètement la phase de démonstration du robot physique, ce qui ouvre la possibilité de collecter des démonstrations en masse, avec n'importe quel opérateur humain, dans n'importe quel environnement, sans mobiliser la plateforme mécanique. C'est précisément le verrou que les acteurs du secteur cherchent à lever : Figure AI, Physical Intelligence (pi) ou Apptronik dépendent tous de pipelines de collecte lents et onéreux. Si le sim-to-real gap reste un défi ouvert, l'approche keypoint avec retargeting propose une voie alternative au full imitation learning vidéo, en s'appuyant sur une représentation compacte et plus robuste aux variations morphologiques entre démonstrateur et robot. BifrostUMI s'inscrit directement dans la lignée de l'Universal Manipulation Interface (UMI) développé par Stanford, qui avait montré qu'un graspeur instrumenté suffit à générer des démonstrations transférables. Les auteurs étendent ce paradigme au corps entier des humanoïdes, un saut de complexité significatif donné le nombre de degrés de liberté à contrôler. Sur le marché, Physical Intelligence mise sur Pi-0 et ses variantes pour des politiques générales entraînées sur données téléopérées, tandis que Boston Dynamics, Unitree et Fourier Intelligence investissent massivement en infrastructure de télé-op. BifrostUMI, en tant que preprint non encore évalué par les pairs, reste une preuve de concept académique, sans déploiement industriel annoncé ni timeline de commercialisation. Les prochaines étapes naturelles seraient une évaluation comparative sur des benchmarks standardisés (RoboSuite, DROID) et une validation sur plusieurs morphologies humanoïdes différentes.

IA physiqueOpinion
1 source
Rhythm : apprentissage du contrôle interactif corps entier pour deux robots humanoïdes
60arXiv cs.RO 

Rhythm : apprentissage du contrôle interactif corps entier pour deux robots humanoïdes

Des chercheurs ont publié en mars 2026 sur arXiv un framework baptisé Rhythm, conçu pour piloter simultanément deux robots humanoïdes Unitree G1 en interaction physique directe. Le système repose sur trois composants : un module IAMR (Interaction-Aware Motion Retargeting) qui génère des références de mouvement réalistes à partir de captures de données humaines, une politique d'apprentissage par renforcement IGRL (Interaction-Guided Reinforcement Learning) qui modélise les dynamiques de contact couplées via des récompenses basées sur des graphes, et un pipeline de transfert sim-to-real permettant de déployer ces comportements sur robots physiques. Les comportements validés incluent l'accolade et la danse synchronisée entre deux G1, transférés de simulation vers le monde réel. Il s'agit d'un travail académique, pas d'un produit commercialisé. L'intérêt technique est dans la résolution du problème de contact couplé multi-corps : quand deux humanoïdes se touchent, les efforts mécaniques se propagent en boucle entre les deux chaînes cinématiques, rendant le contrôle instable. Rhythm aborde ce problème par des récompenses graph-based qui capturent explicitement l'interaction entre les deux agents, plutôt que de traiter chaque robot indépendamment. Pour un intégrateur ou un ingénieur robotique, c'est une validation que le sim-to-real fonctionne même pour des dynamiques de contact bilatérales, un verrou qui bloquait la plupart des approches multi-robots à manipulation physique. Cela ouvre la voie à des tâches collaboratives exigeant une coordination fine, comme le port de charges lourdes à deux, le transfert d'objets ou l'assemblage bimanuel étendu. Le robot Unitree G1 est une plateforme commerciale accessible (environ 16 000 dollars), ce qui donne à ces résultats une reproductibilité supérieure aux travaux sur robots propriétaires. Dans la course aux humanoïdes, les acteurs comme Figure (Figure 03), Tesla (Optimus Gen 3), Physical Intelligence (Pi-0) et Boston Dynamics se concentrent sur des déploiements unitaires en environnement industriel ; la coordination physique entre deux humanoïdes reste un espace peu exploré commercialement. Rhythm ne s'inscrit pas encore dans une roadmap produit annoncée, mais la disponibilité du code sur arXiv et le choix du G1 suggèrent une communauté de recherche qui converge vers la standardisation des plateformes, préfigurant des pilotes industriels à horizon 18-36 mois.

RecherchePaper
1 source
VoxAfford : fusion multi-échelle voxel-token pour la détection d'affordances 3D à vocabulaire ouvert
61arXiv cs.RO 

VoxAfford : fusion multi-échelle voxel-token pour la détection d'affordances 3D à vocabulaire ouvert

Une équipe de chercheurs publie VoxAfford (Voxel-enhanced Affordance Detection), une méthode de détection d'affordance 3D en vocabulaire ouvert, disponible en preprint sur arXiv (identifiant 2605.01365, mai 2025). L'affordance 3D désigne la localisation automatique des zones d'interaction sur un objet - où saisir, pousser, verser - à partir d'une description textuelle libre et non prédéfinie. Sur les benchmarks de référence, VoxAfford affiche une amélioration d'environ 8% en mIoU (mean Intersection over Union) par rapport aux meilleures méthodes existantes. Des expériences sur robot réel valident un transfert zero-shot vers des objets inédits, c'est-à-dire non présents dans les données d'entraînement. Le problème central adressé touche directement la robotique de manipulation : les grands modèles de langage multimodaux (MLLMs) utilisés pour générer des masques de segmentation produisent des tokens sémantiquement riches mais spatialement appauvris, parce que leur génération autorégressive modélise des dépendances séquentielles plutôt que des relations de voisinage géométrique dans l'espace 3D. VoxAfford contourne ce goulot d'étranglement en injectant des caractéristiques géométriques multi-échelles issues d'un encodeur 3D VQVAE (Vector Quantized Variational AutoEncoder) pré-entraîné et figé, directement dans les tokens de sortie après génération. Un mécanisme de cross-attention interroge les motifs géométriques à chaque échelle de voxel en utilisant la sémantique d'affordance comme requête, tandis qu'une porte de compatibilité apprise dose l'injection. Les tokens enrichis sont ensuite agrégés en un prompt d'affordance spatialement cohérent, propagé avec les features par point pour produire le masque final. Les 8% de gain en mIoU sont présentés sans détail sur les conditions exactes de benchmark, un point à nuancer avant toute comparaison directe avec d'autres travaux. La détection d'affordance en vocabulaire ouvert constitue un verrou central pour les robots manipulateurs devant opérer en langage naturel dans des environnements non structurés, problématique partagée par les plateformes humanoïdes (Figure, Unitree, Boston Dynamics) comme par les bras industriels programmés via instruction vocale. Les approches précédentes, notamment celles étendant les MLLMs avec des tokens de sortie spéciaux, butaient précisément sur cette dichotomie sémantique-géométrique que VoxAfford tente de combler. L'architecture s'inscrit dans la tendance des modèles VLA (Vision-Language-Action) qui cherchent à réconcilier compréhension linguistique et précision spatiale - un défi que des acteurs comme Physical Intelligence (pi0), Google DeepMind (GR00T N2) et 1X affrontent également dans leurs pipelines de manipulation. La validation en robot réel avec transfert zero-shot, et non uniquement en simulation, renforce la crédibilité des résultats face au sim-to-real gap fréquemment reproché aux méthodes d'IA incarnée. Aucun acteur français ou européen n'est mentionné dans cette publication ; les suites naturelles incluent l'intégration dans des pipelines de manipulation sur des plateformes comme les bras Franka Robotics ou Universal Robots.

UEImpact indirect à terme : intégration possible sur des plateformes européennes (Franka Robotics DE, Universal Robots DK), mais aucune contribution ou institution FR/UE impliquée dans la publication.

RecherchePaper
1 source
Stabilité de l'apprentissage par renforcement guidé par fonction de Lyapunov de contrôle
62arXiv cs.RO 

Stabilité de l'apprentissage par renforcement guidé par fonction de Lyapunov de contrôle

Une équipe de chercheurs a publié mi-mai 2026 sur arXiv (arXiv:2605.01978) une analyse théorique de la stabilité des politiques de contrôle issues du reinforcement learning (RL) appliqué à la locomotion humanoïde. Le cœur du travail porte sur la technique dite CLF-RL, qui consiste à construire les fonctions de récompense du RL à partir de fonctions de Lyapunov de contrôle (Control Lyapunov Functions, CLF), un outil classique de la théorie du contrôle. Les auteurs démontrent formellement la stabilité exponentielle des contrôleurs optimaux résultants, aussi bien en temps continu qu'en temps discret, en traitant le problème RL comme un problème de commande optimale. Les résultats sont vérifiés numériquement sur des systèmes de référence académiques (double intégrateur, cart-pole), puis les récompenses guidées par CLF sont appliquées à un robot humanoïde marchant pour générer des orbites périodiques stables. Ce travail comble un écart critique entre la pratique et la théorie dans le domaine de la robotique humanoïde. Le RL est aujourd'hui la méthode dominante pour faire marcher des humanoïdes, avec des déploiements chez Figure, Tesla, Agility Robotics ou encore Unitree, mais ces systèmes manquent de garanties de stabilité formelles, ce qui freine leur certification pour des environnements industriels ou la cohabitation humain-robot. Prouver la stabilité exponentielle, c'est-à-dire démontrer que le système converge vers sa trajectoire cible à un taux borné même après une perturbation, est un résultat nettement plus fort que la simple stabilité au sens de Lyapunov. Pour un intégrateur ou un COO industriel, cela ouvre la voie à une qualification plus rigoureuse des systèmes RL en production. La CLF-RL s'inscrit dans un courant académique plus large qui tente de réconcilier l'efficacité empirique du RL avec la rigueur de la théorie du contrôle, un programme de recherche actif depuis les travaux sur la Control Barrier Function (CBF) et les approches de type safety-critical control. Face aux approches purement model-based (Boston Dynamics) ou au RL non guidé (Agility, Figure Gen-2), la CLF-RL propose une voie intermédiaire. Ce papier reste une contribution théorique et de simulation, sans déploiement matériel annoncé sur un humanoïde commercial, et la généralisation à des dynamiques complètes à haute dimension (32 DOF et plus) reste un défi ouvert.

UECes garanties formelles de stabilité exponentielle pourraient alimenter les futurs cadres de certification des humanoïdes en environnement industriel européen (AI Act, normes IEC 61508), mais aucun acteur français ou européen n'est impliqué dans ces travaux.

RecherchePaper
1 source
Locomotion quadrupède sensible à la dynamique via une tête de dynamique intrinsèque
63arXiv cs.RO 

Locomotion quadrupède sensible à la dynamique via une tête de dynamique intrinsèque

Des chercheurs ont déposé le 2 mai 2026 sur arXiv (identifiant 2605.01227) un cadre d'entraînement appelé "Intrinsic Dynamics Head" (ID Head) pour améliorer la locomotion des robots quadrupèdes sur terrains complexes. Le principe repose sur un entraînement simultané de deux composants : une politique de contrôle classique (Control Policy) et un module auxiliaire, l'ID Head, qui apprend à prédire le couple articulaire (torque) directement à partir de l'état du robot. Ce module génère une "dynamics reward", une récompense qui oriente la politique vers des comportements mécaniquement plus prévisibles. Les expériences de transfert sim-to-real sur robot physique affichent des gains mesurés de 16,8 % sur l'efficacité en couple (torque efficiency), 18,6 % sur le taux d'action (action rate), 12,8 % sur la puissance mécanique consommée, et une amélioration de 6,4 % de l'occupation sécurisée des couples (safe torque occupancy). L'intérêt de cette approche dépasse la performance brute : elle s'attaque directement au problème du "sim-to-real gap" dans la locomotion sur pattes, en rendant la politique explicitement consciente des dynamiques physiques sous-jacentes. Les politiques RL classiques produisent souvent des mouvements erratiques et des pics de couple qui usent prématurément les actionneurs et provoquent des arrêts de sécurité en déploiement réel. Pour un intégrateur ou un développeur de plateforme, des gains de 16 à 19 % sur ces métriques se traduisent concrètement par une durée de vie accrue des composants et une meilleure fiabilité opérationnelle. L'ID Head offre également un levier de réglage fin via ses coefficients d'entraînement, sans nécessiter de réentraînement complet de la politique. Ce travail s'inscrit dans le courant dominant de l'apprentissage par renforcement pour la locomotion sur pattes, porté depuis 2022 par des contributions majeures d'ETH Zurich autour d'ANYmal et par les politiques déployées sur Spot (Boston Dynamics) ou les plateformes Unitree (Go2, H1). Il répond aux critiques récurrentes sur le caractère mécaniquement sous-optimal des politiques RL pures, trop consommatrices de couples. À noter : il s'agit d'une prépublication académique sans partenariat industriel annoncé ni calendrier de déploiement. La validation sur des plateformes commerciales à plus grande échelle reste à démontrer.

RecherchePaper
1 source
Boom des robots en Chine : entre effet d'annonce et réalité commerciale, la rentabilité tarde à venir
64SCMP Tech 

Boom des robots en Chine : entre effet d'annonce et réalité commerciale, la rentabilité tarde à venir

Dans le parc technologique de Zhangjiang, à Shanghai, Agibot exploite un site qui ressemble à la fois à un atelier industriel et à un studio de tournage : des robots aux morphologies variées exécutent des tâches répétitives sous supervision humaine, ramassant des objets, pliant du linge, manipulant des blocs de construction. Il ne s'agit pas d'une démonstration commerciale, mais d'une "data foundry", une usine de collecte de données pour l'intelligence incarnée. Ce modèle, qui mobilise des opérateurs humains pour guider mécaniquement les robots, reflète l'état réel du secteur : la Chine a lancé des dizaines de startups humanoïdes, mais la commercialisation effective accuse un retard marqué sur les annonces. L'écart entre la vitesse de déploiement médiatique et les revenus réels constitue le vrai enjeu structurel. Les investissements en capital-risque ont afflué massivement vers des entreprises comme Agibot, Unitree ou DEEP Robotics, mais les cas d'usage industriels à l'échelle restent rares. La collecte de données en environnement contrôlé est certes nécessaire pour entraîner des VLA (Vision-Language-Action models), mais elle ne génère pas encore de chiffre d'affaires récurrent ni de preuves solides de sim-to-real à grande échelle. Agibot, fondée en 2023 et déjà valorisée à plusieurs centaines de millions de dollars après plusieurs tours de financement, s'est positionnée comme l'un des candidats les plus sérieux à la commercialisation en Chine. Elle fait face à une concurrence dense : Unitree, avec ses robots quadrupèdes et humanoïdes à prix agressifs, et Figure ou Boston Dynamics à l'international. La prochaine étape critique pour l'ensemble du secteur sera de démontrer des déploiements hors environnement contrôlé, avec des métriques de temps de cycle et de fiabilité vérifiables par des tiers.

UELa montée en puissance des startups humanoïdes chinoises (Agibot, Unitree) représente une pression compétitive indirecte sur les fabricants de robots industriels européens, mais l'absence de déploiements à l'échelle vérifiables limite l'impact concret sur le marché EU à court terme.

Chine/AsieOpinion
1 source
Les robots chinois s'imposent dans la vie réelle, du nettoyage à la régulation du trafic
65SCMP Tech 

Les robots chinois s'imposent dans la vie réelle, du nettoyage à la régulation du trafic

En Chine, les robots humanoïdes et de service quittent les laboratoires pour s'intégrer dans des environnements opérationnels réels, un virage visible depuis le début de 2025. En mars, une offre de nettoyage a été lancée sur 58.com, plateforme chinoise d'annonces équivalente à LeBonCoin, associant un robot à un technicien humain pour des interventions à domicile. Au-delà du ménage, des robots sont désormais déployés pour réguler la circulation routière et intervenir dans des ateliers industriels à risque, là où l'exposition humaine est problématique, soudure, manipulation de produits chimiques, environnements haute température. Ce glissement du POC vers le déploiement opérationnel est structurellement significatif pour le secteur. Il signale que l'écart "demo-to-reality" commence à se résorber dans des cas d'usage à périmètre contrôlé : tâches répétitives, environnements semi-structurés, supervision humaine maintenue. Pour les intégrateurs B2B, cela ouvre une fenêtre concrète sur des ROI calculables, à condition que les cycles de maintenance et les taux d'erreur en conditions réelles soient publiés, ce que les annonces chinoises ne détaillent pas encore systématiquement. La Chine a inscrit la robotique incarnée comme priorité nationale dans son plan industriel 2025, avec des financements étatiques directs vers des acteurs comme Unitree, UBTECH et Fourier Intelligence. Face à Figure AI (Figure 02), Boston Dynamics (Atlas) et Tesla (Optimus Gen 2) côté américain, Pékin mise sur le déploiement massif et rapide plutôt que sur la performance en vitrine. Les prochaines étapes probables : extension des services 58.com à d'autres villes, et multiplication des pilotes industriels dans la logistique et la maintenance lourde.

UELa montée en puissance du déploiement opérationnel des robots chinois (Unitree, UBTECH, Fourier) accentue la pression concurrentielle indirecte sur les fabricants et intégrateurs européens, sans impact direct immédiat sur la France ou l'UE.

Chine/AsieOpinion
1 source
Meta veut devenir l’Android des robots humanoïdes
66Next INpact 

Meta veut devenir l’Android des robots humanoïdes

Meta a confirmé auprès de Bloomberg l'acquisition d'Assured Robot Intelligence (ARI), une startup spécialisée dans le développement de modèles d'intelligence artificielle pour la robotique. L'équipe d'ARI, présentée par Meta comme se situant « à la pointe de l'intelligence robotique, conçue pour permettre aux robots de comprendre, prévoir et s'adapter aux comportements humains dans des environnements complexes et dynamiques », rejoint le Meta Superintelligence Labs. Elle travaillera étroitement avec le Meta Robotics Studio, une division créée en février 2025 pour développer les technologies de base des robots humanoïdes. Ce rachat s'inscrit dans une stratégie plus large : Meta a déjà présenté en octobre 2025 des prototypes de capteurs tactiles avancés, le Digit Plexus, une solution matérielle pour intégrer des capteurs dans une main robotique, et le Digit 360, un capteur en forme de doigt fournissant des données haptiques très précises. Le géant des réseaux sociaux aurait par ailleurs déjà engagé des discussions avec Unitree Robotics, fabricant chinois connu pour ses robots acrobatiques, ainsi qu'avec Figure AI. L'ambition de Meta ne se limite pas à fabriquer ses propres robots : l'entreprise veut jouer un rôle de plateforme transversale pour toute l'industrie, sur le modèle d'Android et des puces Qualcomm dans l'écosystème des smartphones. Si ce positionnement réussit, Meta se retrouverait en position centrale dans un marché potentiellement colossal, en fournissant les briques logicielles et matérielles sur lesquelles d'autres constructeurs bâtiront leurs produits. L'enjeu industriel est réel : Amazon estime que les robots humanoïdes lui permettront d'éviter 600 000 embauches d'ici 2033, signal fort que la demande en environnements professionnels précède largement celle du grand public. Ce mouvement s'inscrit dans une dynamique de fond déclenchée par l'essor de l'IA générative, qui a fourni aux robots la capacité de comprendre des consignes en langage naturel, de décomposer des tâches complexes et de s'adapter à des situations imprévues, ce que les systèmes robotiques classiques ne pouvaient pas faire seuls. De nombreuses entreprises ont flairé l'opportunité d'un nouveau marché lucratif, et la compétition se structure rapidement. Tesla mise sur une approche intégrée verticalement avec Optimus, Elon Musk ayant promis lors du Forum de Davos une commercialisation possible dès fin 2026. Meta, dont le laboratoire de recherche fondamentale FAIR a vu son influence diminuer depuis le départ de Yann LeCun, réoriente clairement ses ressources vers ce chantier via le Superintelligence Labs. La question est désormais de savoir si le modèle « couche d'infrastructure ouverte » peut s'imposer face aux acteurs qui cherchent à tout contrôler, de la puce au châssis.

Cartes de coût conditionnées à la tâche pour la locomotion sur pattes
67arXiv cs.RO 

Cartes de coût conditionnées à la tâche pour la locomotion sur pattes

Une équipe de recherche a publié sur arXiv (identifiant 2605.00261, mai 2025) une méthode permettant aux robots à pattes de naviguer plus fiablement sur des terrains non structurés en modélisant l'incertitude épistémique dans la prédiction des appuis. Le principe : un modèle appris, entraîné à prédire les points de contact viables au sol, intègre désormais une estimation de sa propre incertitude, conditionnée à la fois sur les relevés de hauteur du terrain et sur la commande de mouvement transmise au robot. Testé en simulation et en conditions réelles, le système distingue les zones de terrain "connues" (in-distribution) des zones hors distribution (OOD), c'est-à-dire absentes des données d'entraînement. Cette incertitude est intégrée dans un cadre unifié de génération de costmaps, directement exploitable par un planificateur de trajectoire. Résultat principal : jusqu'à 37 % de réduction de l'erreur de faisabilité en simulation, avec un comportement de planification plus robuste qu'un modèle reposant uniquement sur la géométrie du terrain. L'enjeu est concret pour les intégrateurs de robots à pattes en milieu industriel. La plupart des systèmes appris actuels échouent silencieusement sur des terrains hors distribution : le robot tente quand même le franchissement, avec des risques de chute ou de blocage. En rendant l'incertitude explicite et traduite en coût dans le planificateur, le système peut délibérément éviter les zones qu'il ne reconnaît pas. C'est une avancée pour le déploiement en environnements non contrôlés, là où il est impossible de couvrir exhaustivement tous les types de surface lors de l'entraînement. La méthode offre aussi une voie de sortie au problème des datasets limités : un modèle entraîné sur une distribution restreinte peut opérer en sécurité en sachant délimiter son propre domaine de compétence. Cette problématique s'inscrit dans un effort de recherche plus large visant à combler le gap sim-to-real en locomotion à pattes, défi qui mobilise des acteurs comme ANYbotics (dont l'ANYmal est déployé en inspection industrielle), Boston Dynamics (Spot) ou Unitree Robotics. La tendance dominante jusqu'ici consistait à accumuler davantage de données et à diversifier les terrains de simulation. L'approche par quantification d'incertitude offre une voie complémentaire, particulièrement adaptée aux déploiements à domaine restreint où la collecte de données exhaustive est coûteuse. Les auteurs ne mentionnent ni timeline de commercialisation ni partenariat industriel identifié : il s'agit d'un preprint académique, sans validation sur robot commercial nommé.

RecherchePaper
1 source
Des téléphones aux robots humanoïdes : la chaîne d'approvisionnement chinoise vise sa prochaine courbe de croissance
68SCMP Tech 

Des téléphones aux robots humanoïdes : la chaîne d'approvisionnement chinoise vise sa prochaine courbe de croissance

Le fabricant de smartphones Honor a créé la surprise en remportant le semi-marathon robotique de Pékin avec son humanoïde D1, devançant des acteurs établis comme Unitree, une première qui illustre un basculement structurel dans l'industrie : la chaîne d'approvisionnement chinoise des smartphones et de l'électronique grand public se reconvertit activement vers la robotique humanoïde. Des fournisseurs de composants jusqu'ici positionnés sur les marchés mobiles cherchent de nouveaux relais de croissance alors que la demande en téléphonie stagne, et transfèrent leur expertise en actionneurs, capteurs, batteries haute densité et électronique embarquée vers ce nouveau segment. L'enjeu est considérable pour l'industrie robotique mondiale. La Chine dispose d'un avantage structurel rare : une chaîne d'approvisionnement intégrée, des volumes de production éprouvés, et des coûts unitaires optimisés par des années de compétition féroce sur le marché mobile. Si ces capacités se déploient à grande échelle dans le secteur humanoïde, elles pourraient accélérer drastiquement le passage du prototype au produit commercialisable, un goulot d'étranglement qui freine encore la plupart des acteurs occidentaux. La victoire du D1 reste néanmoins une démonstration en conditions contrôlées, et les performances en environnement industriel réel constituent un autre niveau d'exigence. Ce pivot intervient alors que Pékin soutient activement l'humanoïde via des subventions et des appels d'offres publics. Unitree (G1, H1), UBTECH et le consortium Fourier Intelligence figurent parmi les acteurs domestiques établis que Honor et d'autres entrants issus du hardware grand public viennent désormais challenger. À l'international, Boston Dynamics, Figure AI et 1X restent les références, mais leur chaîne d'approvisionnement reste plus fragmentée. Les prochaines étapes pour Honor et les reconvertis du mobile seront de démontrer une fiabilité opérationnelle hors contexte de compétition.

UELe pivot de la chaîne d'approvisionnement chinoise vers l'humanoïde pourrait à terme intensifier la pression concurrentielle sur les fabricants européens de robots en comprimant les coûts unitaires de composants clés (actionneurs, batteries, électronique embarquée).

Chine/AsieOpinion
1 source
L'art de traverser le gouffre : quand une startup est-elle prête pour l'adoption par les entreprises ?
69Robotics Business Review 

L'art de traverser le gouffre : quand une startup est-elle prête pour l'adoption par les entreprises ?

Figure AI a annoncé avoir atteint un rythme de production d'un robot humanoïde par heure dans son usine BotQ, située dans la baie de San Francisco, soit une multiplication par 24 du débit en moins de 120 jours. La société revendique la livraison de plus de 350 unités de troisième génération (Figure 03), la fabrication de plus de 9 000 actionneurs et 500 packs batterie, avec 150 postes de travail en réseau et plus de 50 stations de contrôle qualité en ligne de production. En parallèle, Flex -- fabricant texan de composants électroniques -- a annoncé le déploiement de robots de Teradyne Robotics dans l'ensemble de ses sites de production mondiaux, en combinant les cobots Universal Robots (UR) et les AMR (robots mobiles autonomes) de Mobile Industrial Robot (MiR), deux filiales de Teradyne. Celle-ci a par ailleurs publié ses résultats du premier trimestre 2026 : 91 millions de dollars de chiffre d'affaires, quatrième trimestre consécutif de croissance après deux vagues de licenciements liées à des baisses de revenus en 2023 et 2024. Du côté des distinctions, l'association A3 a remis les prix Engelberger 2026 à Hiroshi Fujiwara, directeur exécutif de la Japan Robot Association (JARA) depuis 2009, et à Robert Little, cofondateur d'ATI Industrial Automation en 1989, qui a fait passer la société de 1 million à plus de 100 millions de dollars de revenus en devenant un acteur mondial des changeurs d'outils robotiques et des capteurs force/couple. Le chiffre de 24x de gain de débit chez Figure AI est spectaculaire, mais il convient de le lire avec précaution : la société communique sur des volumes de production, non sur des déploiements clients ou des contrats signés -- la distinction entre "fabriqué" et "opérationnel chez un client" reste floue dans ce communiqué. Cela dit, atteindre un robot par heure constitue un vrai seuil industriel si les données sont vérifiées, car la plupart des concurrents humanoïdes fonctionnent encore à l'échelle des dizaines d'unités annuelles. Le partenariat Flex/Teradyne est lui plus concret : Flex étant déjà fournisseur de composants pour UR, ce déploiement interne représente un signal fort de maturité opérationnelle des cobots et AMR dans des environnements de production à haute variabilité. C'est précisément la question que pose Neal Hansch, managing partner de Silicon Foundry et invité de l'épisode 242 du Robot Report Podcast : à quel moment un startup robotique est-il réellement prêt pour l'adoption entreprise, au-delà des démonstrations ? Figure AI a lancé ses premiers prototypes publics en 2023 et son Figure 02 en 2024, avec un financement total dépassant le milliard de dollars. Ses principaux concurrents sur le segment humanoïde incluent Tesla (Optimus Gen 3), Agility Robotics déployé chez Amazon, 1X Technologies, Apptronik, et Physical Intelligence (Pi-0, axé VLA), sans oublier Unitree et Fourier Intelligence côté asiatique. Teradyne, de son côté, cherche à repositionner UR et MiR comme infrastructure de "physical AI" face à la montée des solutions intégrées proposées par des acteurs comme Boston Dynamics (désormais sous Hyundai). La trajectoire de Robert Little chez ATI -- 40 ans d'expérience, croissance organique de 100x sur les end-effectors -- rappelle que les composants critiques de la chaîne robotique peuvent générer une valeur durable bien au-delà des intégrateurs systèmes.

UELe déploiement global de Universal Robots (UR) et MiR par Flex valide la maturité opérationnelle de ces deux marques danoises (filiales Teradyne) dans des environnements industriels à haute variabilité, renforçant leur position concurrentielle sur le marché européen des cobots et AMR face aux solutions intégrées émergentes.

HumanoïdesActu
1 source
Figure et 1X accélèrent la production de robots humanoïdes
70IEEE Spectrum Robotics 

Figure et 1X accélèrent la production de robots humanoïdes

Figure atteint désormais une cadence de production de 55 robots humanoïdes par semaine, selon une annonce publiée fin avril 2026. Ces unités sont, selon la startup américaine, destinées aux équipes internes de R&D, à la collecte de données, au développement de tâches domestiques de bout en bout et à des "cas d'usage commerciaux en développement", une formulation qui interroge sur la destination réelle de cette production alors que les déploiements commerciaux restent à maturité. En parallèle, 1X Technologies a officiellement ouvert la NEO Factory à Hayward, en Californie : une usine de 58 000 pieds carrés (environ 5 400 m²) employant plus de 200 personnes, avec une chaîne entièrement intégrée couvrant moteurs, batteries, transmissions, capteurs, structures et assemblage final. Les premières unités NEO sortent déjà des lignes de production, avec des livraisons grand public annoncées pour 2026. Sur le plan technique, Agility Robotics a publié des tests d'équilibre dynamique sur une seule jambe pour son robot Digit, et une équipe de recherche a présenté HTD (Humanoid Transformer with Touch Dreaming), un système de manipulation humanoïde combinant téleopération VR, apprentissage par renforcement pour le bas du corps et capteurs tactiles distribués. La montée en cadence simultanée de Figure et 1X marque un glissement du secteur humanoïde vers la production industrielle, mais chaque annonce appelle une lecture critique. Produire 55 unités par semaine sans contrats commerciaux confirmés suggère soit une stratégie de collecte de données à grande échelle, ressource clé pour l'entraînement des politiques VLA (Vision-Language-Action), soit une anticipation agressive de la demande avant une prochaine levée de fonds. L'intégration verticale revendiquée par 1X, inspirée du modèle Tesla, offre une flexibilité d'itération et réduit la dépendance aux fournisseurs, mais mobilise des capitaux considérables. Les travaux d'Agility sur l'équilibre dynamique illustrent par ailleurs que le gap sim-to-real reste un verrou technique central : la moindre divergence entre modèle simulé et robot réel peut provoquer une instabilité en conditions réelles, limitant directement la fiabilité en milieu industriel. Figure, fondée en 2022 par Brett Adcock, a levé plus de 750 millions de dollars avec BMW, Microsoft et Amazon comme partenaires, et opère un pilote chez BMW Manufacturing en Caroline du Sud depuis 2024, bien que les vidéos publiées restent en conditions contrôlées. 1X, société norvégienne soutenue par OpenAI et Tiger Global, se positionne sur le marché résidentiel face à Tesla Optimus (déployé progressivement dans les usines Tesla), aux robots Agility Digit (opérés chez Amazon) et aux fabricants chinois comme Unitree (G1, H1) qui exercent une pression tarifaire croissante. Aucun acteur européen, ni Wandercraft, ni Enchanted Tools, ni Pollen Robotics, n'annonce de production à ce volume pour l'instant. Les prochains trimestres détermineront si ces cadences correspondent à des commandes fermes ou à une stratégie de positionnement avant financement.

UELa montée en cadence de Figure et 1X exerce une pression concurrentielle sur les acteurs européens (Wandercraft, Enchanted Tools, Pollen Robotics), qui n'annoncent pas de volumes de production comparables à ce stade.

HumanoïdesActu
1 source
Apprentissage de politiques de loco-manipulation quadrupède avec perception tactile
71arXiv cs.RO 

Apprentissage de politiques de loco-manipulation quadrupède avec perception tactile

Une équipe de chercheurs a publié en avril 2026 sur arXiv (2604.27224) un pipeline hiérarchique de loco-manipulation pour robots quadrupèdes intégrant le retour tactile. Le système combine une politique visuotactile de haut niveau, entraînée sur des démonstrations humaines réelles, qui prédit simultanément les trajectoires de l'effecteur terminal et les signaux tactiles attendus caractérisant l'évolution du contact, avec une politique corps-entier entraînée par reinforcement learning à grande échelle en simulation et transférée zero-shot sur robot physique. Évalué sur trois tâches à contact riche (réorientation en main avec insertion, serrage de vanne, manipulation d'objets fragiles), le système affiche un gain moyen de 28,54 % par rapport aux baselines vision seule et visuotactile sans prédiction tactile. L'apport principal est de démontrer que vision et proprioception restent insuffisantes pour résoudre des contacts incertains et évolutifs, et que le retour tactile fournit une observabilité directe que les autres modalités ne peuvent pas suppléer. La mise à l'échelle de l'apprentissage tactile à un système complet de loco-manipulation quadrupède est une contribution distinctive : la littérature récente s'était concentrée sur les bras fixes et les mains dextres, laissant les plateformes mobiles en dehors du périmètre. Le transfert zero-shot sim-to-real de la politique multimodale corps-entier valide par ailleurs qu'il est possible de combler le gap simulation-réalité sur des politiques sensorielles complexes sans fine-tuning sur robot physique, un résultat concret pour les déploiements industriels. La manipulation par quadrupèdes s'est accélérée depuis 2023 avec Spot (Boston Dynamics) et ANYmal (ANYbotics, ETH Zurich), qui s'appuient cependant essentiellement sur la vision et la proprioception. L'intégration d'une couche tactile hiérarchique sur des systèmes mobiles reste une extension non triviale, absente des plateformes Unitree B2/Z1 ou des travaux sur MIT Cheetah. La suite logique inclut l'extension à des capteurs haute densité (GelSight, capacitif distribué) et à des chaînes de manipulation multi-étapes en milieu industriel réel. Ce travail est un preprint non encore évalué par les pairs, ce qui invite à la prudence sur la généralisabilité des résultats au-delà du protocole expérimental décrit.

UELes résultats sur le transfert zero-shot sim-to-real et la manipulation tactile quadrupède sont directement pertinents pour ANYbotics (spin-off ETH Zurich) et ses déploiements d'inspection industrielle en Europe, où ANYmal constitue la plateforme de référence.

RecherchePaper
1 source
Un robot humanoïde chinois grandeur nature avec 18 000 capteurs maîtrise 115 degrés de liberté
72Interesting Engineering 

Un robot humanoïde chinois grandeur nature avec 18 000 capteurs maîtrise 115 degrés de liberté

Kinetix AI, une entreprise de recherche en IA basée à Shenzhen, a dévoilé KAI, un robot humanoïde de taille réelle mesurant 173 cm pour 70 kg. Le robot affiche 115 degrés de liberté (DoF) au total, dont 72 concentrés dans les mains, soit 36 DoF par main combinant 22 articulations actives à commande précise et 14 articulations passives jouant le rôle d'amortisseurs mécaniques. KAI peut se déplacer à 5 km/h, soulever jusqu'à 20 kg, et fonctionne 4 heures par charge grâce à une batterie semi-solide de 1,7 kWh. Sa peau tactile synthétique embarque 18 000 points de capteurs capables de détecter des forces à partir de 0,1 newton, permettant une manipulation haptic-aware en temps réel. Le prix annoncé est inférieur à 40 000 dollars, avec une production en série prévue pour fin 2026. Il s'agit pour l'instant d'une annonce avec démonstration vidéo, sans déploiement commercial confirmé. Le nombre de degrés de liberté des mains est la donnée qui retient l'attention des intégrateurs : la majorité des humanoïdes actuels en compétition (Figure 03, Tesla Optimus Gen 3, Agility Digit) plafonnent à 20-30 DoF manuels, rendant la préhension d'objets complexes ou fragiles difficile à fiabiliser. Les 36 DoF par main de KAI, couplés aux 18 000 capteurs tactiles, visent directement ce goulot d'étranglement. Si les performances annoncées se confirment hors conditions de labo, cela représente un argument sérieux pour les cas d'usage de tri, d'assemblage fin et d'interaction service. Le choix de la batterie semi-solide mérite également d'être noté : en réduisant le risque d'emballement thermique par rapport aux cellules Li-ion classiques, Kinetix adresse un frein réel au déploiement en environnement humain. La cible déclarée reste le service (retail, conciergerie, assistance domicile) et non l'industrie lourde, ce qui situe KAI dans la même catégorie commerciale que Sanctuary AI ou Apptronik. Kinetix AI est une structure relativement peu connue hors de Chine, opérant dans un écosystème humanoïde domestique qui comprend des acteurs déjà bien financés comme Unitree (G1, H1), DEEP Robotics et Fourier Intelligence. Pour entraîner KAI, la société a développé un dispositif portable baptisé KAI Halo, permettant à des opérateurs humains de générer des données d'entraînement lors de tâches quotidiennes via capture vidéo première personne, mouvements corporels et données spatiales. L'architecture d'intelligence repose sur un "World Model" à trois couches (base, action, évaluation) intégrant une simulation prédictive avant exécution de mouvement, approche cohérente avec les tendances actuelles en Physical AI (pi0 de Physical Intelligence, GR00T N2 de NVIDIA). La prochaine étape structurante sera la confirmation de pilotes industriels ou de partenariats distributeurs pour valider la transition du prototype vers le produit livrable.

Chine/AsieOpinion
1 source
Linkhou lève des dizaines de millions de dollars pour développer sa production de composants robotiques
73Pandaily 

Linkhou lève des dizaines de millions de dollars pour développer sa production de composants robotiques

Linkhou, fabricant chinois de composants pour la robotique avancée, a annoncé fin avril 2026 la clôture d'un tour de financement Series B+, d'un montant de plusieurs centaines de millions de yuans (soit plusieurs dizaines de millions de dollars), mené par le China Internet Investment Fund avec la participation de plusieurs investisseurs historiques. Fondée en 2015 à Suzhou par Dong Hao, ancien de Bozhon Precision, la société produit des briques matérielles critiques pour la robotique incarnée : modules de vision, châssis mobiles et bras robotiques humanoïdes. Linkhou revendique avoir soutenu des déploiements de robots incarnés à l'échelle de 10 000 unités, un seuil rarement atteint dans le secteur. Son outil industriel comprend deux bases de production à Suzhou et Jiaxing, dont un site principal ayant mobilisé 1 milliard de yuans (environ 140 millions de dollars) d'investissement total, dimensionné pour produire annuellement 850 000 modules de vision, 450 000 unités de contrôle du mouvement et 80 000 robots complets. Les fonds levés seront alloués à la R&D, à l'extension des capacités de production et au développement international. Ce financement illustre un pivot stratégique dans la course humanoïde chinoise : plutôt que de financer un nouveau constructeur de robots complets, le marché capitalise sur les équipementiers de niveau 2, ceux qui fournissent les sous-systèmes sensoriels et mécaniques à l'ensemble de l'écosystème. Pour un intégrateur ou un COO industriel, c'est un signal que la chaîne d'approvisionnement en composants robotiques à haute cadence commence à se structurer en Chine, réduisant la dépendance aux importations japonaises ou européennes pour les actionneurs et capteurs. L'affirmation d'un déploiement à 10 000 unités mérite toutefois d'être nuancée : le communiqué ne précise ni les clients, ni les environnements de déploiement, ni si ce chiffre correspond à des unités en opération réelle ou livrées sur stock. Linkhou s'inscrit dans une vague de spécialistes de composants embarqués qui émergent en Chine aux côtés des constructeurs humanoïdes comme Unitree, Agibot ou UBTECH. Son positionnement en fournisseur multi-client de modules de vision et de contrôle du mouvement le place en concurrence indirecte avec des acteurs comme Hikrobot pour la vision industrielle et Leaderdrive pour les actionneurs. Le soutien du China Internet Investment Fund, fonds d'État rattaché à la Cyberspace Administration of China, donne à ce tour une dimension stratégique au-delà du pur rendement financier, dans un contexte où Pékin pousse activement à l'industrialisation de la robotique incarnée comme axe de compétitivité nationale. Les prochaines étapes annoncées incluent une expansion sur les marchés internationaux, sans précision de calendrier ni de géographies cibles.

UELa structuration rapide de la chaîne d'approvisionnement chinoise en composants robotiques haute cadence (modules de vision, actionneurs) accroît la pression concurrentielle sur les équipementiers européens et japonais, potentiellement au détriment de leurs parts de marché dans l'écosystème robotique mondial.

Chine/AsieOpinion
1 source
Shengshu Technology lance Motubrain, son modèle monde-action
74Pandaily 

Shengshu Technology lance Motubrain, son modèle monde-action

La société chinoise Shengshu Technology a annoncé Motubrain, un modèle dit "monde-action" (world-action model) conçu comme cerveau unifié pour systèmes d'IA incarnée. L'architecture fusionne modélisation du monde et génération d'actions dans un cadre unique, avec pour ambition de couvrir l'adaptation cross-embodiment, la généralisation multi-tâches et l'exécution de séquences longues. Sur les benchmarks, Motubrain revendique la première place dans deux évaluations internationales : un score EWM de 63,77 sur WorldArena, et un score supérieur à 95 sur RoboTwin 2.0 en environnement aléatoire, ce qui en ferait le seul modèle à franchir ce seuil. En démonstration réelle, le système a été présenté sur des tâches comme la composition florale, le service de cocktails et la cuisine, en maintenant, selon l'entreprise, des performances cohérentes sur plusieurs plateformes robotiques distinctes. Shengshu annonce des partenariats avec plusieurs fabricants de robots pour accélérer le déploiement, sans préciser lesquels ni sur quels volumes. L'annonce s'inscrit dans une dynamique de fond : la convergence entre modèles de monde et modèles d'action est devenue l'un des paris stratégiques majeurs de la robotique généraliste. Là où les approches VLA (Vision-Language-Action) classiques séparent compréhension et génération de mouvement, Motubrain prétend les unifier, ce qui, si les résultats benchmark sont confirmés en conditions industrielles, changerait le calcul pour les intégrateurs : moins de pipelines à orchestrer, meilleure robustesse aux variations d'environnement. Le score RoboTwin 2.0 est particulièrement scruté car ce benchmark cible spécifiquement la manipulation bimanuele en environnement non structuré, un goulot d'étranglement persistant pour le déploiement en atelier. Il convient néanmoins de noter que les démonstrations vidéo publiées restent des cas sélectionnés, sans données de taux de succès sur cycles répétés ni de latence end-to-end, ce qui rend difficile une comparaison rigoureuse avec des systèmes comme Pi-0 de Physical Intelligence ou GR00T N2 de NVIDIA. Shengshu Technology est actif dans l'espace de la génération vidéo et des modèles génératifs chinois depuis plusieurs années, mais Motubrain marque un pivot explicite vers l'IA incarnée. Sur le plan concurrentiel, le modèle se positionne face à Pi-0 (Physical Intelligence), Helix (Figure), RDT-1B (Tsinghua) et les initiatives en cours chez 1X et Agility. La Chine accélère significativement dans ce segment, avec des acteurs comme Unitree, AGIBOT et désormais Shengshu qui visent une commercialisation de modèles fondationnels pour robots plutôt que des robots clés en main. Les prochaines étapes annoncées concernent le déploiement chez des partenaires industriels non nommés, sans calendrier précis ni confirmation d'un accès public au modèle.

UELa montée en puissance des modèles fondationnels chinois pour la robotique incarnée intensifie la pression concurrentielle sur les acteurs européens du VLA et de l'IA physique, sans impact direct identifiable à ce stade.

IA physiqueOpinion
1 source
Un cerveau unique pour tout gérer : la Chine développe un modèle d'IA unifié pour la robotique multi-tâches complexe
75Interesting Engineering 

Un cerveau unique pour tout gérer : la Chine développe un modèle d'IA unifié pour la robotique multi-tâches complexe

La société chinoise ShengShu Technology a présenté Motubrain, un modèle d'IA unifié conçu pour servir de cerveau généraliste aux robots, intégrant perception, raisonnement, prédiction et action dans un seul système. Le modèle affiche un score de 63,77 sur le benchmark WorldArena et une moyenne de 96,0 sur 50 tâches du benchmark RoboTwin 2.0, ce qui en ferait à ce jour le seul modèle à dépasser 95,0 dans des environnements aléatoires. Contrairement aux architectures modulaires classiques qui séparent la perception, la planification et l'exécution en composants distincts, Motubrain traite simultanément flux vidéo, instructions en langage naturel et séquences d'actions via une architecture Mixture-of-Transformers à trois flux. Le modèle est capable d'enchaîner jusqu'à 10 actions atomiques par séquence, contre 2 à 3 pour la plupart des systèmes actuels. L'entraînement repose sur un mélange de vidéos non annotées, de données de simulation et d'enregistrements multi-robots, avec un framework d'actions latentes qui extrait les schémas de mouvement directement depuis ces entrées, réduisant la dépendance aux jeux de données labellisés. ShengShu indique que le modèle est déjà utilisé dans des programmes d'entraînement actifs couvrant des environnements industriels, commerciaux et domestiques, avec des partenariats annoncés avec Astribot, SimpleAI et Anyverse Dynamics. L'annonce signale une tentative de rupture avec l'approche dominante en robotique, qui consiste à assembler des modules spécialisés (vision, planification, contrôle) développés séparément. Un modèle unifié capable de gérer en continu la boucle perception-action représente un avantage potentiel pour les intégrateurs industriels : moins de friction entre sous-systèmes, une mise à jour centralisée, et une meilleure capacité d'adaptation à des tâches non vues lors de l'entraînement. Le fait démontré en test interne, selon lequel un robot peut détecter l'échec d'une préhension et réessayer sans avoir été entraîné spécifiquement sur ce scénario, illustre une forme de robustesse comportementale qui reste un défi ouvert pour les systèmes modulaires. Les scores sur RoboTwin 2.0 sont notables, mais les conditions précises du benchmark (variété des tâches, comparabilité entre laboratoires) méritent un regard critique : les résultats en simulation ne se transfèrent pas toujours au déploiement terrain. La capacité à maintenir de meilleures performances que les systèmes concurrents à mesure que la complexité des tâches et le volume de données augmentent suggère un bon passage à l'échelle, point clé pour des déploiements industriels à grande variété. ShengShu Technology s'est d'abord fait connaître via Vidu, sa plateforme de génération vidéo, dont les données à grande échelle alimentent désormais Motubrain pour apprendre la physique du monde réel. Fondée par Jun Zhu, professeur à l'Université Tsinghua, la société a levé 293 millions de dollars en Série B menée par Alibaba Cloud. Sur le marché des modèles cérébraux pour robots polyvalents, elle se positionne face à des acteurs comme Physical Intelligence (Pi-0, San Francisco), NVIDIA avec GR00T N2, et côté chinois, Agibot et Unitree. Le lancement de Motubrain intervient dans un contexte de compétition accélérée autour des modèles VLA (Vision-Language-Action) capables de généralisation multimodale. Les prochaines étapes annoncées incluent l'extension des partenariats industriels et le déploiement sur davantage de plateformes robotiques, sans calendrier précis communiqué.

Chine/AsieActu
1 source
Retour sur 10 ans de robots à pattes avec Ghost Robotics au Robotics Summit
76Robotics Business Review 

Retour sur 10 ans de robots à pattes avec Ghost Robotics au Robotics Summit

Ghost Robotics, fondée en 2015 à Philadelphie, a franchi le cap des 1 000 robots livrés depuis sa création. Le CEO et co-fondateur Gavin Kenneally sera présent au Robotics Summit & Expo, les 27 et 28 mai 2026 à Boston, pour une conférence intitulée "From Prototype to Perimeter : 10 Years of Legged Robotics in Action". Il y présentera des retours d'expérience terrain sur ses déploiements de quadrupèdes, les évolutions logicielles récentes, et les perspectives à cinq ans pour la robotique à pattes dans les secteurs public et privé. Titulaire d'un doctorat en génie mécanique de l'Université de Pennsylvanie, co-concepteur mécanique du Vision 60 Q-UGV, Kenneally cumule six publications académiques et treize brevets. Fin 2025, la société a commercialisé un bras manipulateur monté en partie haute du Vision 60, un système décrit comme léger et précis, conçu pour étendre les capacités de manipulation de la plateforme sans dégrader sa mobilité. Ce seuil des 1 000 unités livrées distingue Ghost Robotics d'une grande partie de ses concurrents dans le segment des quadrupèdes opérationnels, où les annonces marketing précèdent souvent de loin les déploiements réels. Le Vision 60 est utilisé par le Département de la Défense américain (DoD) pour des missions de surveillance périmétrique et d'inspection en environnements contraints. L'ajout du bras manipulateur répond à une critique structurelle des plateformes à pattes : jusqu'ici cantonnées à la mobilité et à la perception, elles manquaient de capacité d'interaction physique avec leur environnement. Pour un intégrateur ou un COO industriel, c'est le signal d'un glissement vers des robots polyvalents capables à la fois de naviguer et d'agir, ce qui élargit significativement les cas d'usage au-delà de la surveillance pure. Il convient toutefois de noter que la société n'a pas publié de métriques détaillées sur les performances du bras en conditions opérationnelles. Ghost Robotics évolue dans un marché de plus en plus dense. Boston Dynamics, dont le Spot est disponible commercialement depuis 2020, reste la référence la plus visible, tandis qu'ANYbotics (ANYmal C, déployé dans le secteur énergétique offshore) et Unitree (B2, positionné sur les prix bas) exercent une pression croissante. Ghost Robotics se différencie par son ancrage défense-sécurité et une stack logicielle et électronique entièrement propriétaire, une exigence de souveraineté technologique souvent requise par le DoD. La conférence de Boston en mai 2026 sera l'occasion pour la société de consolider son image de fournisseur éprouvé, alors qu'une nouvelle génération de compétiteurs mise sur des architectures VLA (Vision-Language-Action) et le transfert sim-to-real pour rattraper leur retard terrain. Les suites annoncées portent sur l'élargissement des capacités du bras manipulateur et l'extension des déploiements vers les secteurs industriels privés.

💬 1 000 robots livrés, c'est le genre de chiffre qui change une conversation. Pendant que la plupart des acteurs du secteur accumulent les démos et les levées de fonds, Ghost a mis des machines en service auprès du DoD, ce qui vaut tous les benchmarks du monde. L'ajout du bras manipulateur est la bonne décision au bon moment, reste à voir si ça tient quand le terrain devient franchement hostile.

IndustrielOpinion
1 source
Vidéo du vendredi : qui gagne entre un robot et un joueur professionnel de ping-pong ?
77IEEE Spectrum Robotics 

Vidéo du vendredi : qui gagne entre un robot et un joueur professionnel de ping-pong ?

La semaine du 18 avril 2026 a été marquée par plusieurs démonstrations robotiques notables, dont la plus emblématique s'est déroulée à Pékin : lors d'un semi-marathon de 21 kilomètres réunissant 12 000 coureurs humains, plus de 100 robots humanoïdes ont pris le départ aux côtés d'athlètes humains, et trois d'entre eux ont franchi la ligne d'arrivée avant tout concurrent humain. Ce résultat, relayé par Al Jazeera, illustre une progression rapide de la locomotion bipedale en conditions réelles. En parallèle, Sony AI publiait dans Nature les résultats d'un système autonome capable de disputer une partie de ping-pong contre des joueurs professionnels, en relevant le défi de la perception haute vitesse et du contrôle dynamique en temps réel, deux verrous longtemps considérés comme bloquants pour l'IA physique compétitive. Autre fait marquant, le robot AthenaZero du Robotics and AI Institute a réalisé du jonglage à trois balles à mains nues, sans motion capture externe ni entonnoir mécanique, en s'appuyant uniquement sur des capteurs embarqués et une coordination oeil-main apprise pour gérer l'incertitude au contact. Ces résultats alimentent le débat sur l'écart entre démonstration et déploiement réel. Le semi-marathon de Pékin constitue une preuve de robustesse locomotrice en environnement non contrôlé, même si les conditions de course (surface, pace, assistance technique en bord de piste) mériteraient d'être précisées pour évaluer la comparabilité exacte avec une performance humaine. La publication Sony dans Nature donne une légitimité scientifique au domaine de l'IA physique compétitive et valide l'idée que des boucles de contrôle rapide peuvent être apprises à partir de données réelles plutôt que simulées. AthenaZero, de son côté, illustre les progrès du sim-to-real sur des tâches de manipulation dynamique sans infrastructure externe, ce qui ouvre la voie à des applications industrielles de tri ou de reorientation d'objets en mouvement. En contrepoint, IEEE Spectrum souligne que la vraie valeur en entrepôt vient encore de systèmes d'automatisation mobile comme ceux de Berkshire Grey, et non des humanoïdes, une nuance importante pour les décideurs B2B qui évaluent des ROI à court terme. Le contexte de cette semaine s'inscrit dans une accélération visible de la robotique chinoise, portée notamment par des acteurs comme Unitree, qui présente des séquences de locomotion en milieu non structuré, et DEEP Robotics, dont les robots quadrupèdes sont déjà déployés en patrouille résidentielle en Amérique du Nord. Sur le plan matériau, le Max Planck Institute for Intelligent Systems a publié une méthode d'évaluation des actionneurs électrostatiques souples utilisant des actionneurs Peano-HASEL, atteignant un rendement électromécanique de 63,6 %, soit plus de trois fois supérieur aux valeurs antérieurement rapportées, ce qui ouvre des perspectives pour des robots légers et silencieux. Côté mobilité aérienne, Skydio a montré la capture de drones en vol avec un bras UR20, tandis qu'ETH Zurich continue ses travaux sur drones suractuatés. Enfin, Sphero se positionne pour combler le vide laissé par LEGO Mindstorms sur le marché de la robotique éducative, un segment commercial non négligeable laissé en friche depuis l'abandon de la gamme par LEGO.

UELes publications de l'ETH Zurich sur les drones suractuatés et du Max Planck Institute sur les actionneurs Peano-HASEL (rendement 63,6%) positionnent la recherche européenne comme contributrice active dans l'écosystème mondial de la robotique physique légère.

IA physiquePaper
1 source
Deep Robotics déploie des robots quadrupèdes chez FAW pour l'inspection industrielle
78Pandaily 

Deep Robotics déploie des robots quadrupèdes chez FAW pour l'inspection industrielle

Deep Robotics a annoncé le 23 avril 2026 le déploiement de son robot quadrupède Jueying X30 sur un site industriel du groupe FAW (First Automobile Works), l'un des plus grands constructeurs automobiles chinois. Les robots assurent des missions d'inspection automatisée au sein du parc manufacturier, opérant en continu 24h/24 et 7j/7, y compris en conditions de faible luminosité grâce à un module multi-capteurs embarqué. Le Jueying X30 s'intègre aux systèmes de contrôle d'accès du site pour franchir les portes de manière autonome et navigue indifféremment en environnements intérieurs et extérieurs. Les données collectées et les alertes sont centralisées sur une plateforme dédiée pour le suivi et le reporting. L'annonce ne précise pas les métriques clés habituellement attendues dans ce type de déploiement : vitesse de déplacement, autonomie de la batterie, superficie couverte, nombre d'unités déployées ou résultats opérationnels mesurés. Le déploiement chez FAW constitue un signal intéressant pour le marché de l'inspection industrielle quadrupède, qui cherche depuis plusieurs années à dépasser le stade du pilote isolé. L'intégration native au contrôle d'accès et la capacité à opérer en extérieur comme en intérieur répondent à des contraintes réelles des sites manufacturiers à grande échelle, notamment la couverture incomplète des rondes humaines et les difficultés de recrutement pour les postes de nuit. Pour un intégrateur ou un responsable maintenance industrielle, ce type de déploiement valide le cas d'usage "inspection de site" sur un terrain exigeant, même si l'absence de KPI publics rend difficile l'évaluation de la maturité réelle de la solution versus une démonstration commerciale. Deep Robotics, fondée à Hangzhou, développe la gamme Jueying depuis plusieurs années et positionne le X30 comme sa référence pour l'inspection industrielle lourde. La concurrence sur ce segment est dense : Boston Dynamics Spot reste la référence mondiale la plus déployée, Unitree pousse ses modèles B2 sur les marchés sensibles au prix, et ANYbotics (Zurich) avec son ANYmal C est le principal acteur européen actif sur les sites Oil & Gas et manufacturiers. Ghost Robotics (Philadelphie) cible quant à lui les applications défense et sécurité. La prochaine étape pour Deep Robotics sera de publier des données de performance terrain pour crédibiliser ce déploiement au-delà du communiqué de presse.

UELe déploiement valide le cas d'usage inspection industrielle quadrupède sur lequel ANYbotics (Zurich) est le principal acteur européen, renforçant la pression concurrentielle des fabricants chinois sur ce segment.

Chine/AsieActu
1 source
État de l'art de la robotique à pattes en environnements non inertiels : passé, présent et futur
79arXiv cs.RO 

État de l'art de la robotique à pattes en environnements non inertiels : passé, présent et futur

Une équipe de chercheurs dépose en avril 2026 sur arXiv (référence 2604.20990) une revue de littérature consacrée à la locomotion des robots à pattes dans les environnements dits non inertiels, c'est-à-dire des surfaces en mouvement, en inclinaison ou en accélération. Le travail couvre trois grandes familles d'applications : les plateformes de transport terrestre (véhicules en déplacement), les plateformes maritimes (navires, offshore) et les contextes aérospatiaux. Les auteurs y passent en revue les méthodes existantes de modélisation, d'estimation d'état et de contrôle de la locomotion, en cartographiant leurs hypothèses et leurs limites respectives. Ils identifient ensuite quatre classes de problèmes non résolus : le couplage robot-environnement, l'observabilité du système en présence de perturbations persistantes, la robustesse des lois de contrôle face aux accélérations variables, et la validation expérimentale dans des conditions dynamiques représentatives. L'enjeu industriel est immédiat. L'écrasante majorité des robots à pattes aujourd'hui commercialisés, quadrupèdes comme l'ANYmal d'ANYbotics, le Spot de Boston Dynamics ou le Go2 d'Unitree, est conçue, calibrée et validée sur sol rigide et stationnaire. Les frameworks de contrôle classiques (MPC, whole-body control) posent explicitement l'hypothèse d'un point d'appui fixe. Dès qu'un navire tangue ou qu'un véhicule accélère, ces hypothèses s'effondrent, entraînant des comportements instables non récupérables sans adaptation du contrôleur en temps réel. Pour un COO qui envisage de déployer des robots d'inspection sur une plateforme pétrolière offshore, un cargo ou un aéronef, ce gap technique constitue aujourd'hui un frein concret à la commercialisation, indépendamment des progrès spectaculaires réalisés sur sol plat. Le domaine progresse depuis la fin des années 2010, porté par l'apprentissage par renforcement (sim-to-real) et l'estimation d'état à haute fréquence par IMU, mais les déploiements réels en environnement non inertiel demeurent rares et peu documentés dans la littérature. Aucun acteur industriel dominant ne s'est encore imposé sur ce segment, ni en Europe ni en Asie, ce qui laisse la fenêtre ouverte pour des laboratoires académiques et des intégrateurs spécialisés. Le survey identifie plusieurs directions prioritaires : les stratégies bio-inspirées (adaptation observée chez les animaux marins ou arboricoles), la co-conception robot-plateforme, et l'élaboration de protocoles de test standardisés simulant les perturbations dynamiques. Ce travail de cartographie a vocation à servir de référence pour orienter les prochains appels à projets et les roadmaps des fabricants de robots à pattes qui visent les marchés industriels les plus exigeants.

UEAucun déploiement européen documenté, mais le survey cartographie un segment non adressé (inspection offshore, navires, plateformes maritimes) où des laboratoires académiques et intégrateurs européens pourraient se positionner en l'absence de leader établi.

RecherchePaper
1 source
Apprendre l'apesanteur : imiter des mouvements non auto-stabilisants sur un robot humanoïde
80arXiv cs.RO 

Apprendre l'apesanteur : imiter des mouvements non auto-stabilisants sur un robot humanoïde

Une équipe de chercheurs propose dans un preprint arXiv (référence 2604.21351, avril 2026) une méthode baptisée Weightlessness Mechanism (WM), conçue pour permettre aux robots humanoïdes d'exécuter des mouvements dits non-autostabilisants (NSS, Non-Self-Stabilizing). Ces mouvements englobent des actions aussi banales que s'asseoir sur une chaise, s'allonger sur un lit ou s'appuyer contre un mur : contrairement à la locomotion bipède classique, le robot ne peut maintenir sa stabilité sans interagir physiquement avec l'environnement. Les expériences ont été menées en simulation et sur le robot humanoïde Unitree G1, sur trois tâches représentatives : s'asseoir sur des chaises de hauteurs variables, s'allonger sur des lits à différentes inclinaisons, et s'appuyer contre des murs via l'épaule ou le coude. La méthode est entraînée sur des démonstrations en action unique, sans fine-tuning spécifique à chaque tâche. L'apport technique central s'appuie sur une observation biomécanique : lors de mouvements NSS, les humains relâchent sélectivement certaines articulations pour laisser le contact passif avec l'environnement assurer la stabilité, un état que les auteurs qualifient de "weightless". Le WM formalise ce mécanisme en déterminant dynamiquement quelles articulations relâcher et dans quelle mesure, complété par une stratégie d'auto-étiquetage automatique de ces états dans les données d'entraînement. Pour les intégrateurs industriels qui déploient des humanoïdes dans des environnements réels, ce verrou est significatif : les pipelines actuels d'imitation learning combiné au reinforcement learning imposent généralement un suivi rigide de trajectoire sans modéliser les interactions physiques avec les surfaces, ce qui les rend inopérants dès que le robot doit s'appuyer sur quelque chose. Le contexte est celui d'un secteur en pleine accélération : Figure AI avec le Figure 03, Agility Robotics avec Digit, Boston Dynamics avec Atlas et 1X Technologies poussent tous leurs humanoïdes vers des déploiements en entrepôt ou en usine, mais les scénarios de contact-riche restent largement non résolus. Le Unitree G1, plateforme commerciale accessible, s'impose progressivement comme banc de test académique standard, ce qui accélère la reproductibilité des résultats. Il faut néanmoins souligner que ce travail est au stade de preprint non évalué par les pairs, et que les séquences vidéo accompagnant ce type de publication sont souvent sélectionnées favorablement : la robustesse réelle en conditions non supervisées reste à démontrer. Les suites naturelles seraient une intégration dans des politiques généralisées comme GR00T N2 de NVIDIA ou pi0 de Physical Intelligence, et une évaluation sur des scènes hors distribution.

IA physiquePaper
1 source
X2-N : robot humanoïde transformable hybride roues-jambes à double mode de locomotion et manipulation
81arXiv cs.RO 

X2-N : robot humanoïde transformable hybride roues-jambes à double mode de locomotion et manipulation

Des chercheurs ont publié sur arXiv (référence 2604.21541v1, avril 2026) les résultats de développement du X2-N, un robot à locomotion hybride roues-jambes capable de se transformer entre une configuration humanoïde bipède et une configuration à roues, par reconfiguration articulaire à la volée. Contrairement aux plateformes roues-jambes existantes qui utilisent des roues fixes en guise de pieds et des hanches à degrés de liberté limités, le X2-N dispose d'un grand nombre de degrés de liberté (le nombre exact n'est pas précisé dans l'abstract) et d'un buste complet avec deux bras manipulateurs. Le système de contrôle repose sur un framework de contrôle corps entier basé sur l'apprentissage par renforcement (RL), unifiant locomotion hybride, transformation morphologique et manipulation dans un même pipeline. Les validations expérimentales couvrent des tâches de locomotion dynamique de type skating, de montée d'escaliers et de livraison de colis. Le point central de cette contribution est l'adresse du double goulot d'étranglement qui freine les robots roues-jambes actuels : la rigidité de la configuration au sol, qui dégrade la stabilité en mode biped, et l'absence de membres supérieurs, qui interdit toute manipulation. En intégrant ces deux capacités dans un seul châssis transformable piloté par un unique contrôleur RL, les auteurs montrent qu'il est possible d'obtenir une adaptabilité terrain élevée sans sacrifier les capacités de manipulation. Pour un COO industriel ou un intégrateur logistique, c'est la promesse d'un seul robot capable d'alterner entre déplacement rapide en mode roues sur sol continu et navigation en mode jambes sur terrains discontinus, tout en manipulant des charges. Il convient néanmoins de souligner que les validations présentées restent des démonstrations en laboratoire : aucun déploiement industriel réel ni chiffres de cycle time en conditions production ne sont fournis. Le segment des robots roues-jambes est occupé notamment par Unitree (variantes B2W et H1 avec extensions roues), Boston Dynamics (Handle, orienté logistique mais sans bras polyvalents), et diverses startups issues de laboratoires universitaires asiatiques et américains. Le X2-N se positionne sur la convergence humanoïde-AMR, un créneau en compétition directe avec les approches tout-biped des acteurs comme Figure, Agility Robotics ou Fourier Intelligence, qui misent sur l'universalité de la forme humaine plutôt que sur la flexibilité morphologique. La prochaine étape logique pour cette recherche serait une validation hors laboratoire et la publication de métriques de performance comparables à celles des plateformes commerciales, pour confirmer que les gains en efficacité de locomotion compensent la complexité mécanique additionnelle.

HumanoïdesPaper
1 source
Un robot humanoïde prend en charge la collecte de données et les tâches administratives sur un chantier britannique
82Interesting Engineering 

Un robot humanoïde prend en charge la collecte de données et les tâches administratives sur un chantier britannique

La société de construction britannique Tilbury Douglas est devenue la première grande entreprise du secteur au Royaume-Uni à déployer un robot humanoïde sur un chantier réel. Baptisé Douglas, le robot de 30 kg est fabriqué par Unitree, l'un des leaders mondiaux du marché des robots humanoïdes. Il a déjà prouvé son utilité lors d'un essai de dix semaines sur site actif. Sa mission n'est pas de poser des briques ni de couler du béton, mais de prendre en charge les tâches administratives et de collecte de données qui mobilisent quotidiennement les équipes. Équipé de capteurs LiDAR et de caméras 360 degrés, Douglas parcourt le chantier de façon autonome, photographie les avancées de la construction depuis des coordonnées identiques chaque jour, effectue des scans laser pour générer des nuages de points en trois dimensions, et alimente directement les flux de travail liés à la sécurité. Résultat : environ 40 heures de travail administratif économisées chaque mois, soit une semaine complète rendue aux équipes terrain. Cet apport concret change la donne pour les chefs de chantier, qui passaient jusqu'ici une partie de leur journée à arpenter les structures en acier et les pièces inachevées pour documenter l'avancement des travaux. En confiant cette routine à la machine, Tilbury Douglas libère ses professionnels pour des tâches à plus forte valeur ajoutée : coordination technique, résolution de problèmes complexes, management des équipes. La précision du robot dépasse également celle d'un humain sur certains points : en capturant les données depuis exactement les mêmes positions chaque jour, il permet aux logiciels d'IA de détecter automatiquement les déviations et les défauts de construction que l'oeil humain pourrait rater. À 15 000 livres sterling, son coût reste relativement accessible pour une entreprise du secteur. Le timing de ce déploiement n'est pas anodin. Le secteur de la construction britannique traverse une pénurie de compétences structurelle, peinnant à recruter la prochaine génération d'ingénieurs et de chefs de projet. C'est dans ce contexte que Tilbury Douglas, via son directeur technique Mark Buckle, présente Douglas non pas comme un substitut aux travailleurs, mais comme un outil pour les renforcer en automatisant les tâches répétitives. Pour l'heure, le robot est maintenu à distance des bords de chantier pour éviter les chutes, et sera prochainement équipé de marquages haute visibilité et d'une balise d'avertissement pour évoluer en sécurité à proximité d'engins lourds dès les phases de fondation. Cette expérience illustre une tendance de fond : l'IA et la robotique bouleversent les métiers manuels tout autant que les fonctions de bureau, redessinant en profondeur l'organisation du travail dans les industries physiques.

UELe secteur du BTP européen, confronté aux mêmes pénuries structurelles de main-d'œuvre qualifiée qu'au Royaume-Uni, pourrait rapidement s'inspirer de ce déploiement, les robots Unitree étant déjà commercialisés en Europe.

HumanoïdesActu
1 source
Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles
83arXiv cs.RO 

Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles

Des chercheurs ont présenté un système embarqué léger et à architecture ouverte permettant à un robot quadrupède de naviguer de manière autonome dans des environnements réels, inconnus et dynamiques, sans apprentissage préalable spécifique à ces lieux. Déployé sur un robot Unitree Go2 à quatre pattes, le système atteint un taux de réussite supérieur à 88 % dans plusieurs environnements intérieurs testés. Il repose sur ROS2 comme middleware de communication entre les différents composants embarqués, et accepte des instructions de navigation formulées en langage naturel. Les capteurs du robot alimentent en continu un système de localisation et de cartographie, qui construit des graphes de scènes hiérarchiques enrichis de sémantique ouverte, c'est-à-dire capables d'identifier des objets sans liste prédéfinie. Un planificateur basé sur un grand modèle de langage (LLM) exploite ces graphes pour générer et adapter des plans d'action en temps réel, au fur et à mesure que la scène évolue. Ce résultat est significatif car la navigation autonome en environnement réel reste un problème difficile que la majorité des systèmes actuels ne résolvent qu'en simulation, là où les conditions sont contrôlées et les incertitudes absentes. Le fait qu'un robot puisse interpréter une consigne en langue naturelle, construire une représentation sémantique de son environnement à la volée et s'y adapter dynamiquement ouvre la voie à des déploiements pratiques dans des bâtiments industriels, des entrepôts, des hôpitaux ou des espaces publics, sans configuration manuelle préalable. La robotique autonome bute depuis des années sur quatre obstacles fondamentaux : la perception imparfaite, l'observabilité partielle, l'incertitude de localisation et les contraintes de sécurité. L'intégration des LLM comme couche de planification symbolique, combinée à une cartographie sémantique continue, représente une approche émergente qui capitalise sur les progrès récents en traitement du langage naturel et en vision par ordinateur. Ce travail s'inscrit dans une tendance plus large visant à doter les robots de capacités de raisonnement général plutôt que de comportements pré-programmés, un chantier sur lequel rivalisent des équipes académiques et des acteurs industriels comme Boston Dynamics, Figure AI ou Agility Robotics.

HumanoïdesActu
1 source
QuadPiPS : planificateur de pas pour quadrupèdes avec perception et prédiction d'affordances sémantiques
84arXiv cs.RO 

QuadPiPS : planificateur de pas pour quadrupèdes avec perception et prédiction d'affordances sémantiques

Des chercheurs ont publié QuadPiPS, un système de planification de pas pour robots quadrupèdes qui intègre la perception visuelle en temps réel pour naviguer sur des terrains complexes. Le système repose sur une représentation locale appelée "legged egocan", une carte ego-centrique de l'environnement immédiat du robot qui combine des données géométriques et sémantiques pour identifier les zones de pose sûres. Pour planifier les mouvements, QuadPiPS segmente le sol en "superpixels", des régions planes candidates pour les appuis, puis calcule des trajectoires optimisées entre ces points d'appui via des méthodes d'optimisation non linéaire. Le tout est exécuté sous contrôle prédictif de modèle (MPC) et contrôle de corps entier. Les tests ont été menés sur dix environnements de simulation avec cinq systèmes de référence, puis validés physiquement sur le quadrupède Unitree Go2 équipé d'un calculateur embarqué sur mesure, ainsi que sur le robot ANYmal C de ANYbotics. Les résultats montrent que QuadPiPS surpasse ses concurrents dans les scénarios à faible nombre de points d'appui disponibles, précisément les situations les plus dangereuses pour un robot mobile. C'est dans ces environnements critiques, comme des terrains escarpés, des surfaces trouées ou des obstacles rapprochés, que la planification précise des pas fait toute la différence entre un robot qui trébuche et un système fiable. La capacité à raisonner sur les affordances du terrain en temps réel ouvre la voie à un déploiement dans des milieux industriels risqués, des opérations de recherche en zone sinistrée ou l'inspection d'infrastructures inaccessibles. La locomotion des robots à pattes reste l'un des défis majeurs de la robotique mobile : contrairement aux robots à roues, ils doivent planifier chaque appui individuellement en tenant compte de la dynamique du corps entier. QuadPiPS s'appuie sur le cadre de planification ALEF, qu'il étend en séparant explicitement les sous-espaces de décision discrets et continus pour gagner en efficacité. L'essor des LLM embarqués et des capteurs compacts rend ce type d'approche perception-action de plus en plus viable hors laboratoire, et les prochaines étapes devraient viser une intégration dans des pipelines de navigation autonome plus larges.

HumanoïdesActu
1 source
Apprentissage du parkour pour quadrupèdes : mélange d'experts parcimonieux avec entrée visuelle
85arXiv cs.RO 

Apprentissage du parkour pour quadrupèdes : mélange d'experts parcimonieux avec entrée visuelle

Des chercheurs ont publié sur arXiv (référence 2604.19344) une étude comparant deux architectures de réseaux de neurones pour le contrôle d'un robot quadrupède Unitree Go2 face à des obstacles de parkour, notamment des marches et discontinuités élevées. L'architecture testée repose sur un mécanisme dit de "mixture d'experts à portes creuses" (sparsely gated MoE) : au lieu d'activer tous les paramètres du réseau à chaque inférence, seul un sous-ensemble d'experts spécialisés est sollicité selon le contexte. Les résultats sur robot réel sont nets : la politique MoE atteint le double de taux de succès dans la traversée de grands obstacles par rapport à une baseline MLP classique, à budget computationnel identique (même nombre de paramètres actifs à l'inférence). Pour obtenir des performances équivalentes avec un MLP dense, il faut augmenter sa taille totale au niveau du MoE complet, ce qui entraîne une hausse de 14,3 % du temps de calcul. L'intérêt de ce résultat tient moins aux performances brutes qu'à ce qu'il démontre structurellement : les gains architecturaux qui ont propulsé les grands modèles de langage (Mixtral, GPT-4 et consorts utilisent des variantes MoE) sont transférables aux politiques de contrôle robotique bas niveau. Cela valide une intuition croissante dans la communauté : la scalabilité des politiques de locomotion n'est pas uniquement une question de données ou de sim-to-real, mais aussi d'architecture. Pour les équipes travaillant sur des robots embarqués avec contraintes computationnelles, l'activation creuse offre un levier concret pour améliorer les performances sans alourdir les exigences matérielles. Le parkour quadrupède s'est imposé ces deux dernières années comme un benchmark exigeant pour la locomotion, avec des travaux notables issus de Berkeley, ETH Zurich et CMU sur des plateformes similaires (ANYmal, Spot, Go1/Go2). L'approche dominante jusqu'ici reposait sur des MLP séquentiels entraînés par reinforcement learning en simulation puis transférés sur le robot physique. Cette étude, dont le code est accessible en version anonymisée, ouvre une piste d'amélioration architecturale orthogonale aux efforts habituels sur les données ou les environnements de simulation. Les prochaines étapes naturelles concerneraient l'extension à des environnements plus complexes et l'évaluation du comportement des experts spécialisés pour mieux comprendre la décomposition fonctionnelle apprise.

RecherchePaper
1 source
SynAgent : manipulation humanoïde coopérative généralisable par synergie d'agents, du solo au coopératif
86arXiv cs.RO 

SynAgent : manipulation humanoïde coopérative généralisable par synergie d'agents, du solo au coopératif

Une équipe de chercheurs a déposé sur arXiv (2604.18557, avril 2026) SynAgent, un framework unifié pour la manipulation coopérative entre robots humanoïdes. Le problème de départ est concret : faire collaborer deux humanoïdes pour saisir et déplacer un objet volumineux exige des données d'entraînement multi-agents quasi inexistantes. SynAgent contourne ce verrou via une stratégie "Solo-to-Cooperative Agent Synergy" : les compétences sont d'abord apprises sur des données de mouvement humain solo (un agent, un objet), puis transférées vers des scénarios à deux agents. Pour préserver les relations spatiales lors de ce transfert, les auteurs introduisent une méthode de retargeting basée sur un "Interact Mesh" construit par tétraédrisation de Delaunay. L'entraînement repose ensuite sur un préentraînement mono-agent, une adaptation via PPO décentralisé multi-agents, et une politique générative conditionnée par trajectoire utilisant un VAE conditionnel (cVAE), distillée depuis plusieurs priors d'imitation de mouvement. Le principal goulot d'étranglement de la manipulation humanoïde coopérative n'est pas l'algorithme, c'est la donnée : annoter deux humains manipulant des objets en interaction à l'échelle suffisante est coûteux. SynAgent propose de recycler les datasets de mouvement solo, qui sont eux abondants, pour bootstrapper des comportements collaboratifs. Les auteurs rapportent une surperformance significative sur les baselines existantes en imitation coopérative et en contrôle conditionné par trajectoire, avec une généralisation à des géométries d'objets variées, point souvent fragile dans la littérature. Si ces résultats se confirment hors benchmarks contrôlés, l'approche réduirait drastiquement le coût d'entrée pour déployer des paires de robots humanoïdes sur des tâches de manutention lourde. La manipulation bimanuelle distribue un axe de recherche actif : les travaux sur ALOHA (Berkeley), Stanford et CMU ont établi des bases solides pour les tâches dextères, mais sur des plateformes à deux bras unifiées. La coordination entre deux humanoïdes distincts est un problème plus récent, exacerbé par l'émergence commerciale de Figure 02/03, Agility Digit ou Unitree G1. SynAgent s'inscrit dans ce contexte où les labos académiques cherchent à fournir les briques algorithmiques que les industriels ne peuvent pas encore produire à temps. Important à noter : le papier ne mentionne aucune expérience sur hardware physique, ce qui laisse ouverte la question centrale du sim-to-real gap pour ce type de coordination distribuée. Le code et les données seront publiés après acceptation formelle.

HumanoïdesPaper
1 source
UniT : vers un langage physique unifié pour l'apprentissage de politiques humain-humanoïde et la modélisation du monde
87arXiv cs.RO 

UniT : vers un langage physique unifié pour l'apprentissage de politiques humain-humanoïde et la modélisation du monde

UniT (Unified Latent Action Tokenizer via Visual Anchoring) est un framework de recherche présenté début avril 2026 sur arXiv (2604.19734), conçu pour transférer les politiques de mouvement humain directement vers des robots humanoïdes. Le problème adressé est bien documenté : l'entraînement de modèles fondation pour humanoïdes bute sur la rareté des données robotiques. UniT propose d'exploiter les vastes corpus de données égocentrées humaines existants en construisant un espace latent discret partagé entre les deux types de corps. Le mécanisme central, dit tri-branch cross-reconstruction, fonctionne en trois voies : les actions prédisent la vision pour ancrer les cinématiques aux conséquences physiques, la vision reconstruit les actions pour éliminer les biais visuels non pertinents, et une branche de fusion unifie ces modalités purifiées en tokens d'intention physique indépendants de l'embodiment. Le framework est validé sur deux usages : VLA-UniT pour l'apprentissage de politique (Vision-Language-Action), et WM-UniT pour la modélisation du monde, qui permet la génération de vidéos humanoïdes contrôlées par des données de mouvement humain brutes. Les auteurs revendiquent un transfert zero-shot de tâches et une efficacité données state-of-the-art sur benchmark de simulation et sur des déploiements réels, sans toutefois publier de métriques de déploiement chiffrées. L'enjeu central est le "cross-embodiment gap" : un humain et un robot humanoïde partagent une structure morphologique proche mais des cinématiques incompatibles (nombre de degrés de liberté, ratios de membres, actionneurs). Jusqu'ici, combler cet écart nécessitait du retargeting cinématique manuel, de la téléopération coûteuse ou de la simulation synthétique. Si UniT tient ses promesses, il ouvrirait un pipeline d'entraînement hautement scalable à coût marginal faible, puisque les données égocentrées humaines se comptent en millions d'heures. Le claim de zero-shot transfer est le plus fort de l'article, mais il convient de le nuancer : il s'appuie sur des visualisations t-SNE montrant une convergence des représentations humaine et humanoïde dans un espace partagé, ce qui est indicatif mais pas une preuve de généralisation robuste en conditions industrielles réelles. Ce travail s'inscrit dans une vague de recherche sur les modèles fondation pour humanoïdes qui mobilise simultanément Figure AI avec son modèle Helix, Physical Intelligence avec Pi-0 et Pi-0.5, et NVIDIA avec GR00T N2, tous confrontés au même goulot d'étranglement des données. L'approche par ancrage visuel de UniT se distingue des méthodes purement cinématiques comme les retargeters basés sur des squelettes (SMPLify, HumanMimic) en postulant que les conséquences visuelles du mouvement sont universelles indépendamment du corps. Le preprint ne mentionne pas d'affiliation industrielle explicite ni de calendrier de déploiement commercial, et aucun robot cible (Unitree G1, Fourier GR-1, ou autre) n'est nommé dans le résumé disponible. La prochaine étape logique serait une validation sur des benchmarks standardisés comme LIBERO ou RoboMimic, et une comparaison directe avec GR00T N2 sur des tâches dextres en environnement non contrôlé.

IA physiqueOpinion
1 source
Zibian Robotics lance WALL-B, un modèle d'IA incarnée destiné au déploiement à domicile
88Pandaily 

Zibian Robotics lance WALL-B, un modèle d'IA incarnée destiné au déploiement à domicile

Le 21 avril 2026, Zibian Robotics a annoncé WALL-B, un modèle d'IA incarnée reposant sur une architecture qu'elle nomme World Unified Model (WUM), en marge d'une initiative "robots pour la maison". Contrairement aux systèmes Vision-Language-Action (VLA) classiques, qui traitent séquentiellement perception visuelle, raisonnement et contrôle moteur, WALL-B est entraîné en fusion native sur quatre modalités (vision, langage, mouvement, prédiction physique) et revendique trois propriétés clés : multimodalité native, modélisation de la dynamique physique du monde, et auto-amélioration après échec. Le corpus d'entraînement intègre des données issues de centaines de foyers réels, et Zibian annonce un déploiement dans de vrais domiciles d'ici 35 jours, avec recrutement d'utilisateurs déjà en cours. Des précisions techniques et les plans d'écosystème seront révélés le 27 avril à la première conférence sur les applications IA du Guangdong. L'intérêt architectural de l'approche WUM est réel : les VLA souffrent d'une perte d'information à chaque interface entre modules, et leur incapacité à modéliser la physique reste un obstacle documenté au sim-to-real. Un entraînement unifié sur ces quatre flux pourrait réduire ce fossé, notamment pour la manipulation en environnement non structuré, défi central du déploiement résidentiel. Les affirmations de "premier modèle au monde" de ce type restent invérifiables à ce stade, et l'annonce d'un déploiement en 35 jours demeure un engagement commercial non confirmé ; la robustesse à grande échelle dans des foyers variés, avec leurs contraintes de lumière, d'encombrement et de comportements imprévisibles, constitue une barre difficile à franchir. Zibian s'inscrit dans un segment où la concurrence s'intensifie rapidement : Figure AI (Figure 03), Agility Robotics (Digit), Unitree et Agibot développent tous des plateformes polyvalentes pour environnements non structurés. En Chine, l'écosystème robotique bénéficie d'un fort soutien institutionnel, et le choix du Guangdong comme vitrine situe Zibian dans l'orbite de Shenzhen. L'intégration de l'anonymisation visuelle embarquée et d'une gestion explicite du consentement utilisateur répond aux exigences réglementaires croissantes, mais aussi à l'enjeu d'acceptabilité sociale des robots dans l'espace privé. Les prochaines semaines seront décisives pour évaluer si WALL-B franchit la frontière entre annonce et produit déployé en conditions réelles.

Motorevo lève plusieurs dizaines de millions de dollars en série A++, son sixième tour de financement en un an
89Pandaily 

Motorevo lève plusieurs dizaines de millions de dollars en série A++, son sixième tour de financement en un an

Motorevo, fabricant chinois de modules d'articulations robotiques fondé en 2023, vient de boucler un tour de table A++ de plusieurs centaines de millions de RMB (soit plusieurs dizaines de millions de dollars USD), mené par Shenzhen Investment Holdings avec la participation de Genesis Capital. Il s'agit du sixième financement en l'espace d'un an, après cinq tours successifs baptisés A2 à A6 en 2025. Le PDG Chen Wankai a indiqué que les fonds serviront au développement technologique avancé, à l'élargissement de la gamme produit et à l'amélioration des capacités de fabrication et de livraison. La société propose des modules d'articulations intégrés couvrant les séries planétaires, harmoniques et cycloïdales, avec des plages de couple allant de 2 Nm à 400 Nm, destinés aux robots humanoïdes, quadrupèdes, exosquelettes et cobots. En 2025, les expéditions annuelles ont dépassé 100 000 unités, les commandes ont franchi les 150 millions de RMB (environ 21 millions USD), et l'entreprise a atteint la rentabilité. Ce qui retient l'attention, c'est moins le montant du tour que la trajectoire opérationnelle : six levées en douze mois pour un fabricant de composants, combinées à une rentabilité déjà atteinte, signalent un modèle économique solide dans un segment, les actionneurs intégrés, qui reste un goulot d'étranglement critique pour toute la filière humanoïde. La capacité à livrer 100 000 modules par an en 2025, avec une montée à 300 000-500 000 unités prévue d'ici 2026, positionne Motorevo comme fournisseur de tier-1 potentiel pour les intégrateurs qui peinent à sécuriser des chaînes d'approvisionnement en actionneurs à haute performance. Le site de production de Wuxi, opérationnel depuis avril, affiche un taux d'automatisation supérieur à 85 % et un temps de cycle de l'ordre de 90 secondes par module, des métriques industriellement significatives si elles se confirment en production de série. Motorevo s'inscrit dans une vague de spécialistes chinois des composants robotiques qui capitalisent sur l'explosion de la demande domestique en humanoïdes, portée par des acteurs comme Unitree, Leju Robotics (client référencé de Motorevo) ou Agibot. Face à eux, les équivalents occidentaux, Harmonic Drive, Maxon, ou des startups comme Hebi Robotics, peinent à rivaliser sur les volumes et les coûts. La prochaine étape pour Motorevo sera de démontrer la tenue en fiabilité de ses modules sous charge industrielle continue, condition sine qua non pour convaincre les intégrateurs au-delà des pilotes initiaux.

UEPression concurrentielle directe sur les fabricants européens d'actionneurs (notamment Maxon, Harmonic Drive Europe) : Motorevo atteint des volumes et des coûts que les équivalents occidentaux peinent à égaler, ce qui fragilise leur position de fournisseurs tier-1 auprès des intégrateurs de robots humanoïdes.

Chine/AsieActu
1 source
MM-Hand : une main robotique dextère modulaire à 21 degrés de liberté avec actuation déportée
90arXiv cs.RO 

MM-Hand : une main robotique dextère modulaire à 21 degrés de liberté avec actuation déportée

Des chercheurs du MMlab (Hong Kong) ont publié les spécifications complètes de MM-Hand, une main robotique à actionnement tendineux déporté dotée de 21 degrés de liberté (DOF). L'architecture centrale repose sur la délocalisation des moteurs vers la base du robot ou un hub moteur externe, les tendons transitant par des gaines flexibles jusqu'aux doigts. La main intègre des doigts à retour par ressort, des structures palmaire et digitale modulaires imprimées en 3D, des connecteurs tendineux à remplacement rapide, ainsi qu'un système de captation multimodale comprenant des encodeurs articulaires, des capteurs tactiles, un retour d'effort côté moteur, et une caméra stéréo embarquée dans la paume. Les expériences publiées rapportent une force de 25 N en bout de doigt via une transmission tendon-gaine d'un mètre, et les essais en boucle fermée ont été conduits aussi bien bras statique que bras en mouvement. L'ensemble des designs matériels et logiciels est publié en open source. Ce travail s'attaque à un verrou classique de la manipulation dextère à haute densité de DOF : l'encombrement thermique et massique des actionneurs embarqués dans la main. En déportant les moteurs, MM-Hand libère le volume intra-main pour des capteurs et des mécanismes supplémentaires, ce qui change concrètement l'équation pour les laboratoires de recherche en manipulation. La combinaison vision stéréo palmaire et toucher tactile dans un seul effecteur ouvre la voie à des politiques d'apprentissage multimodal (VLA, diffusion policies) sans avoir à multiplier les capteurs externes. La publication open source de la mécanique et du firmware est un signal fort : les auteurs misent sur la réplication communautaire pour valider le passage à l'échelle, ce que les démonstrations en laboratoire seul ne peuvent pas prouver. MM-Hand s'inscrit dans un effort plus large d'industrialisation de la main robotique dextère, un segment où l'on retrouve Shadow Robotics (UK, 24-DOF, câbles), Inspire Robots (Chine, utilisée sur Unitree H1 et G1) et Wonik Robotics (Allegro Hand, 16-DOF, courroies). La différenciation revendiquée de MM-Hand est sa maintenabilité modulaire et son coût de reproduction accessible via impression 3D. Le MMlab n'a pas annoncé de partenariat industriel ni de feuille de route de commercialisation : il s'agit pour l'instant d'une plateforme de recherche publiée, pas d'un produit shipé.

UELes laboratoires européens de recherche en manipulation dextère peuvent répliquer MM-Hand grâce à la publication open source complète (mécanique + firmware), mais aucun partenariat ni déploiement européen n'est annoncé par le MMlab.

RecherchePaper
1 source
Locomotion corps entier des humanoïdes : apprentissage par génération et suivi de mouvement
91arXiv cs.RO 

Locomotion corps entier des humanoïdes : apprentissage par génération et suivi de mouvement

Des chercheurs proposent un cadre de locomotion humanoid corps-entier combinant un modèle de diffusion entraîné sur des mouvements humains retargetés avec un tracker de mouvements par apprentissage par renforcement (RL), le tout déployé sur le robot Unitree G1. Le système génère en temps réel des trajectoires de référence adaptées au terrain, puis un module de suivi les exécute sur le robot complet, en s'appuyant uniquement sur la perception embarquée. Lors des tests matériels, le G1 a franchi avec succès des boîtes, des haies, des escaliers et des combinaisons de terrains mixtes, sans recourir à des capteurs externes ni à un calcul déporté. L'enjeu technique central que ce travail adresse est connu dans le secteur sous le nom de "lower-body dominance" : les approches RL classiques avec reward shaping tendent à produire une locomotion efficace mais raide, concentrée sur les jambes, au détriment de la coordination du buste et des bras. À l'inverse, l'imitation pure de mouvements de référence limite la capacité d'adaptation en ligne aux obstacles imprévus. Le couplage proposé -- générer à la volée la référence adaptée au terrain puis la tracker en boucle fermée -- représente une architecture crédible pour combler ce gap, même si les vidéos de démonstration présentées restent sélectionnées et ne constituent pas encore une validation sur terrain non contrôlé à large échelle. Le Unitree G1, commercialisé depuis 2024 à environ 16 000 dollars, est devenu un banc de test standard pour les laboratoires académiques en locomotion humanoid, au même titre que l'Atlas de Boston Dynamics pour les groupes industriels. Ce travail s'inscrit dans une vague de publications exploitant les modèles de diffusion pour la génération de mouvements robotiques, une tendance initiée notamment par les travaux sur pi0 (Physical Intelligence) et GR00T N2 (NVIDIA). Les auteurs annoncent des résultats quantitatifs montrant que la fine-tuning en boucle fermée améliore la généralisation ; la prochaine étape logique serait une validation sur des terrains non vus pendant l'entraînement et un déploiement en conditions industrielles réelles.

HumanoïdesPaper
1 source
LatentMimic: Terrain-Adaptive Locomotion via Latent Space Imitation
92arXiv cs.RO 

LatentMimic: Terrain-Adaptive Locomotion via Latent Space Imitation

Des chercheurs ont publié le 22 avril 2026 un préprint sur arXiv (arXiv:2604.16440) présentant LatentMimic, un cadre d'apprentissage de la locomotion pour robots quadrupèdes conçu pour concilier deux objectifs jusqu'ici antagonistes : reproduire fidèlement le style de marche issu de données de capture de mouvement (mocap) et s'adapter dynamiquement à des terrains irréguliers. L'approche repose sur une imitation dans l'espace latent : plutôt que de contraindre le robot à répliquer exactement les poses géométriques enregistrées, LatentMimic minimise la divergence marginale entre la distribution état-action de la politique apprise et un prior mocap entraîné séparément. Le système intègre également un module d'adaptation au terrain équipé d'un buffer de replay dynamique, destiné à corriger les dérives de distribution lorsque le robot passe d'un type de sol à un autre. Les évaluations portent sur quatre styles locomoteurs et quatre types de terrain, démontrant des taux de franchissement supérieurs aux méthodes de suivi de mouvement actuelles tout en conservant une haute fidélité stylistique. Ce travail s'attaque à un compromis fondamental qui freine le déploiement des robots quadrupèdes dans des environnements non structurés : les méthodes d'imitation stricte bloquent l'adaptabilité terrain, tandis que les politiques terrain-centriques sacrifient la naturalité du mouvement. En découplant la topologie de la foulée des contraintes géométriques d'extrémité, LatentMimic suggère qu'il est possible d'obtenir les deux à la fois. Pour les intégrateurs industriels et les équipes robotique, cela ouvre la voie à des contrôleurs plus robustes sur sols accidentés, escaliers ou surfaces déformables, sans devoir re-collecter des données mocap spécifiques à chaque terrain. La locomotion quadrupède par imitation est un axe de recherche actif depuis plusieurs années, avec des travaux notables comme AMP (Adversarial Motion Priors, Berkeley 2021) ou les méthodes sim-to-real de DeepMind sur ANYmal et Spot. LatentMimic s'inscrit dans cette lignée en proposant une relaxation conditionnelle plus fine du suivi de pose. Le paper est pour l'instant un préprint non relu par les pairs, et les résultats sont présentés uniquement en simulation et environnements contrôlés, le gap sim-to-real reste à valider sur hardware réel. Aucun partenariat industriel ni timeline de déploiement n'est mentionné. Les prochaines étapes naturelles seraient une validation sur plateformes physiques (Unitree, Boston Dynamics Spot) et une extension à des styles locomoteurs plus complexes comme le trot ou le galop en terrain extrême.

RecherchePaper
1 source
Les géants technologiques chinois accélèrent dans la robotique, un secteur en pleine expansion
93SCMP Tech 

Les géants technologiques chinois accélèrent dans la robotique, un secteur en pleine expansion

Honor, filiale autonome de Huawei depuis 2020 et jusqu'ici positionnée sur les smartphones et wearables, a décroché la médaille d'or au deuxième semi-marathon humanoides de Pékin avec son robot baptisé Lightning, devançant des acteurs spécialisés comme Unitree et X-Humanoid. L'événement, organisé dimanche dernier, réunissait les principaux constructeurs de robots humanoïdes chinois dans une course d'endurance conçue pour évaluer locomotion et robustesse en conditions réelles. Alibaba figure également parmi les grands groupes technologiques qui accélèrent leurs investissements dans le secteur, dans un contexte où Pékin pousse activement à la montée en puissance de la robotique nationale. La victoire d'Honor est significative car elle illustre un phénomène nouveau: les Big Tech généralistes chinois rattrapent en moins de deux ans des spécialistes de la robotique humanoïde qui disposent de plusieurs années d'avance en R&D. Cela suggère que les barrières à l'entrée s'abaissent rapidement, portées par la disponibilité de fondations logicielles communes et d'une chaîne d'approvisionnement matérielle dense en Chine. Pour les intégrateurs industriels, cela annonce une intensification de la concurrence et potentiellement une compression des prix sur les plateformes humanoïdes dans les 18 à 24 prochains mois. Honor n'a lancé sa division robotique qu'en 2025, ce qui rend sa performance d'autant plus notable. La Chine compte désormais plusieurs dizaines de startups humanoïdes, dont Unitree et Fourier Intelligence, mais l'entrée des grandes plateformes tech recompose le paysage compétitif. Côté occidental, Boston Dynamics, Figure AI et Agility Robotics suivront de près cette évolution, notamment pour évaluer si les performances en course se traduisent en fiabilité opérationnelle industrielle.

Chine/AsieOpinion
1 source
La startup d'IA incarnée X Square Robot lève près de 276 millions de dollars en série B, menée par Xiaomi et Sequoia China
94Pandaily 

La startup d'IA incarnée X Square Robot lève près de 276 millions de dollars en série B, menée par Xiaomi et Sequoia China

X Square Robot, startup chinoise spécialisée dans l'IA incarnée fondée en décembre 2023, a bouclé un tour de série B de près de 2 milliards de yuans (environ 276 millions de dollars) entre fin mars et début avril 2026, co-mené par le bras d'investissement stratégique de Xiaomi et Sequoia China. Cette levée intervient à peine trois mois après un tour A++ d'un milliard de yuans (138 millions de dollars) annoncé le 12 janvier, dans lequel ByteDance, Sequoia China, le Beijing Information Industry Development Fund et le Shenzhen Capital Group figuraient déjà comme investisseurs principaux. Meituan et Alibaba ont également rejoint le cap table, ce qui fait de X Square Robot la seule entreprise d'IA incarnée en Chine à avoir attiré les trois géants de l'internet chinois simultanément. La société a déjà commercialisé deux plateformes robotiques propriétaires : Quantum-1 et Quantum-2, ce dernier étant un humanoïde à roues à usage général. En moins de six mois d'existence publique, X Square Robot cumule plus de 400 millions de dollars levés, un rythme qui place la startup dans la même trajectoire de capitalisation accélérée que Figure AI ou Physical Intelligence aux États-Unis. La présence conjointe de Xiaomi, acteur hardware avec une chaîne d'approvisionnement robuste, et de ByteDance, maître de la donnée comportementale à grande échelle, suggère une stratégie d'intégration verticale : modèles de fondation incarnés alimentés par des volumes de données massifs, déployés sur du matériel maîtrisé. Le fait que le fonds IA dédié de Shenzhen Capital ait effectué ici son premier investissement signale également un intérêt institutionnel croissant pour la robotique généraliste en Chine. X Square Robot émerge dans un contexte de compétition intense entre Beijing et la Silicon Valley sur les modèles de fondation robotiques : Unitree, Agibot et Galbot d'un côté, Figure, 1X Technologies et Physical Intelligence de l'autre. La différenciation affichée de X Square repose sur des "modèles de fondation d'intelligence incarnée générale" développés en interne, une approche similaire à celle de Pi-0 (Physical Intelligence) ou GR00T N2 (NVIDIA). Les détails techniques des modèles, leurs benchmarks réels et les déploiements clients concrets restent à ce stade non divulgués, les annonces demeurant au stade du positionnement stratégique plutôt que du produit validé en conditions industrielles.

UELa capitalisation accélérée de X Square Robot par Xiaomi, ByteDance et Alibaba simultanément accentue la pression concurrentielle mondiale sur les projets européens de robots humanoïdes et de modèles de fondation incarnés, sans impact direct immédiat sur la France ou l'UE.

Chine/AsieOpinion
1 source
CLAW : génération de mouvements corps entier composables et annotés en langage naturel
95arXiv cs.RO 

CLAW : génération de mouvements corps entier composables et annotés en langage naturel

Une équipe de chercheurs a publié CLAW (Composable Language-Annotated Whole-body Motion Generation), un pipeline open source conçu pour générer à grande échelle des données de mouvement annoté en langage naturel pour robots humanoïdes, appliqué ici au Unitree G1. Le système compose des primitives de mouvement paramétrées par six variables, type de déplacement, cap, vitesse, hauteur du bassin (pelvis height) et durée, et les exécute dans le simulateur MuJoCo pour produire des trajectoires physiquement cohérentes. Deux interfaces navigateur sont proposées : un mode clavier en temps réel pour l'exploration, et un éditeur de séquences en timeline pour la collecte de données en batch. En parallèle, un moteur de génération d'annotations basé sur des templates produit des descriptions en langage naturel à deux niveaux de granularité : segment individuel et trajectoire complète. Le code est disponible publiquement sur GitHub sous la référence arXiv:2604.11251. L'enjeu central est le goulot d'étranglement des données pour entraîner des contrôleurs whole-body conditionnés au langage (VLA, Vision-Language-Action). La capture de mouvement réelle est coûteuse, peu scalable et limitée en diversité ; les modèles génératifs text-to-motion existants produisent des sorties purement cinématiques, sans garantie de faisabilité physique, un écueil critique pour le déploiement réel. CLAW apporte une réponse intermédiaire : la simulation MuJoCo ancre les trajectoires dans la physique, tandis que la composition modulaire de primitives permet une diversité combinatoire élevée. C'est une approche sim-to-real pragmatique qui vise à réduire le fossé entre données d'entraînement et comportement robot en conditions réelles, sans le coût d'un studio de mocap. Le Unitree G1, robot humanoïde chinois positionné sur le segment accessible (prix catalogue autour de 16 000 USD), est une plateforme de recherche de plus en plus utilisée dans la communauté académique, notamment face aux plateformes fermées comme Figure 02 ou Apptronik Apollo. CLAW s'inscrit dans une dynamique plus large de démocratisation des pipelines de données pour la robotique humanoïde, aux côtés de travaux comme le dataset HumanoidBench ou les approches de Physical Animation de Berkeley. La mise à disposition publique du système est son principal atout différenciant : elle permet aux laboratoires sans ressources de mocap de constituer des jeux de données whole-body annotés pour leurs propres expériences de contrôle en langage. Les prochaines étapes attendues, non annoncées dans ce papier, concernent le transfert réel sur G1 et la validation des politiques entraînées sur ces données synthétiques.

UELes laboratoires européens de recherche en robotique humanoïde peuvent exploiter ce pipeline open source pour constituer des jeux de données whole-body annotés sans infrastructure de mocap coûteuse.

IA physiqueOpinion
1 source
Suivi simplifié : retargeting neural des mouvements pour le contrôle global du robot humanoïde
96arXiv cs.RO 

Suivi simplifié : retargeting neural des mouvements pour le contrôle global du robot humanoïde

Une équipe de chercheurs a publié NMR (Neural Motion Retargeting), un framework d'apprentissage automatique conçu pour résoudre l'un des verrous fondamentaux de la robotique humanoïde : transférer des mouvements humains bruts vers un robot physique sans générer d'artefacts cinématiques. Testé sur le Unitree G1, un humanoïde à 23 degrés de liberté commercialisé autour de 16 000 dollars, NMR démontre sa capacité sur des tâches dynamiquement exigeantes comme les arts martiaux et la danse. Les résultats publiés montrent une élimination quasi-totale des "joint jumps" (discontinuités articulaires) et une réduction significative des auto-collisions par rapport aux méthodes de référence actuelles, tout en accélérant la convergence des politiques de contrôle en aval. Le problème que NMR adresse est structurel. Les approches traditionnelles par optimisation géométrique sont non-convexes et convergent systématiquement vers des optima locaux, produisant des mouvements physiquement incohérents inutilisables pour l'entraînement de politiques de contrôle. NMR reformule le problème différemment : au lieu de chercher une solution optimale, il apprend la distribution des données de mouvement valides. Le pipeline repose sur CEPR (Clustered-Expert Physics Refinement), qui utilise un VAE pour regrouper les mouvements humains hétérogènes en motifs latents homogènes, puis fait intervenir des experts en reinforcement learning massivement parallèle pour projeter chaque cluster sur le manifold de mouvements réalisables du robot. Ces données haute-fidélité supervisent ensuite un réseau hybride CNN-Transformer non-autoregressif capable de raisonner sur le contexte temporel global, évitant les pièges géométriques locaux. L'implication pour les intégrateurs est directe : un pipeline de retargeting plus robuste signifie moins de curation manuelle des données de démonstration, goulot d'étranglement majeur dans le développement de politiques whole-body. Ce travail s'inscrit dans une compétition intense autour du sim-to-real et du retargeting humain-robot, domaine où s'affrontent des approches comme SMPL-based retargeting, PhysHOI ou encore les pipelines de Berkeley Humanoid. Unitree, fabricant chinois qui positionne le G1 comme plateforme de recherche accessible face aux robots Figure, Agility ou Boston Dynamics, bénéficie directement de ces avancées publiées en open research. La prochaine étape naturelle sera la validation sur des tâches de manipulation en environnement non structuré, où la cohérence whole-body entre locomotion et bras reste le défi non résolu du secteur.

RecherchePaper
1 source
Honor développe une gamme robotique après "Lightning", incluant un robot quadrupède et une main dexterique
97Pandaily 

Honor développe une gamme robotique après "Lightning", incluant un robot quadrupède et une main dexterique

Honor, le fabricant chinois de smartphones, a présenté deux nouveaux produits robotiques lors de la China Humanoid Robot Ecosystem Conference, tenue du 17 au 19 avril 2026 au Shanghai Auto Exhibition Center. Wang Ai, directeur de la stratégie pour l'intelligence incarnée chez Honor, a annoncé "Anzai", un robot quadrupède de type chien, et "Luban", une main robotique dextère. Ces annonces interviennent quelques semaines après la présentation de "Lightning", le premier robot humanoïde de la marque, dévoilé au Mobile World Congress en mars 2026. Le 19 avril, Lightning a remporté la catégorie navigation autonome du Semi-Marathon des robots humanoïdes de l'E-Town de Pékin, avec six robots Honor classés dans les six premières places de la catégorie. L'événement réunissait également Unitree Robotics, Leju Robotics, Zhongqing Robotics et Galaxy General Robotics. L'entrée de Honor dans la robotique illustre une tendance de fond : les grands acteurs de l'électronique grand public cherchent à capitaliser leurs écosystèmes logiciels et leur maîtrise des capteurs pour accélérer le déploiement de robots incarnés. Wang Ai a explicitement mentionné l'objectif d'intégrer les briques technologiques issues du smartphone, traitement du signal, IA embarquée, connectivité, dans une plateforme robotique unifiée. La victoire au semi-marathon est toutefois à contextualiser : il s'agit d'une compétition de navigation autonome en environnement semi-contrôlé, et non d'une démonstration de manipulation ou de travail en milieu industriel réel. Honor parle de produits destinés au marché grand public à terme, mais aucune date de commercialisation ni de prix n'ont été communiqués. Honor s'inscrit dans une course humanoïde chinoise qui s'est considérablement densifiée depuis 2024, avec des acteurs comme Unitree (dont le G1 est déjà commercialisé à l'international), Fourier Intelligence et Deep Robotics. Sur la main dextère, le segment "Luban" entre en compétition directe avec les solutions de Shadow Robot, Inspire Robots et SEED Robotics côté européen, ainsi que Dexterous Robotics aux États-Unis. Wang reconnaît que "l'intelligence incarnée fait encore face à de nombreux obstacles techniques et que l'industrie a besoin de plus de temps", formulation prudente qui contraste avec le registre conquérant du reste de la communication. Les prochaines étapes annoncées restent vagues : Honor n'a pas précisé de calendrier de déploiement pilote ni de partenariats industriels, et le passage de la démonstration au produit livrable demeure le principal point d'interrogation pour les intégrateurs.

UELa main dextère 'Luban' entre en concurrence directe avec des acteurs européens comme Shadow Robot (UK) et SEED Robotics, sans déploiement ni partenariat annoncé en Europe à ce stade.

Chine/AsieActu
1 source
Les entreprises chinoises de robotique misent sur les robots quadrupèdes comme principale source de revenus
98SCMP Tech 

Les entreprises chinoises de robotique misent sur les robots quadrupèdes comme principale source de revenus

Les entreprises chinoises de robotique misent de plus en plus sur les robots quadrupèdes comme moteur de revenus principal. AgiBot, acteur majeur de la robotique humanoïde en Chine, vient de filialiser son département quadrupède dans une entité indépendante baptisée AgiQuad. Qiu Heng, directeur des opérations de la nouvelle structure, a déclaré lors d'un briefing presse que l'objectif était d'éviter que l'unité "vive dans l'ombre du géant humanoïde" et de lui permettre une croissance à grande échelle. Dans le même temps, Amap prépare le lancement prochain d'un modèle quadrupède commercial. Ce repositionnement stratégique révèle un écart persistant entre l'attrait médiatique des humanoïdes et leur réalité commerciale. Les quadrupèdes, plus stables mécaniquement, plus simples à déployer en environnement industriel, et déjà éprouvés dans l'inspection d'infrastructure, l'agriculture ou la sécurité, génèrent des revenus concrets là où les humanoïdes restent majoritairement en phase pilote. La décision d'AgiBot de séparer les deux activités suggère que les cycles de vente et les profils clients sont suffisamment distincts pour justifier une structure dédiée, signal que le marché quadrupède arrive à maturité commerciale en Chine. AgiBot s'est imposé ces dernières années comme l'un des développeurs humanoïdes les plus actifs en Chine, aux côtés d'Unitree et de Fourier Intelligence. Sur le segment quadrupède, Unitree domine avec ses séries Go et B, tandis qu'à l'international, Boston Dynamics reste la référence avec Spot. La création d'AgiQuad positionne AgiBot sur une concurrence directe avec ces acteurs, avec l'avantage d'un écosystème industriel chinois intégré et des coûts de production structurellement inférieurs.

UELa montée en puissance des quadrupèdes chinois (AgiQuad, Unitree) à coûts structurellement inférieurs accroît la pression concurrentielle sur les intégrateurs et constructeurs européens positionnés sur l'inspection industrielle et la surveillance.

Chine/AsieOpinion
1 source
L'usine Tesla de Shanghai capable de produire des robots humanoïdes, selon son président en Chine
99SCMP Tech 

L'usine Tesla de Shanghai capable de produire des robots humanoïdes, selon son président en Chine

Allan Wang Hao, président de Tesla Chine, a déclaré lors d'un briefing médias ce mardi que la Gigafactory de Shanghai, la plus grande base de production du constructeur américain, pourrait constituer une "clé en or" pour la fabrication en masse de robots humanoïdes. Wang n'a pas annoncé de calendrier précis ni de volume de déploiement, mais il a explicitement lié la capacité manufacturière exceptionnelle du site, qui produit actuellement plus de 450 000 véhicules par an, à l'ambition d'Elon Musk de commercialiser l'Optimus à grande échelle. Aucun chiffre de production cible pour le robot n'a été communiqué lors de cet événement. Cette déclaration signale une évolution stratégique notable : Tesla envisage de faire de sa chaîne automobile existante un vecteur d'industrialisation robotique, ce qui réduirait structurellement les coûts de montée en cadence. Pour les décideurs industriels, cela suggère que le vrai différenciateur dans la course humanoïde ne sera pas uniquement la performance du modèle d'IA, mais la maîtrise du scale-up manufacturier, un domaine où Tesla dispose d'un avantage reconnu. Il reste cependant à distinguer cette déclaration d'intention d'un engagement de production ferme. Tesla teste actuellement des unités Optimus Gen 2 en interne dans plusieurs de ses usines, sans déploiement commercial confirmé à ce jour. Sur le marché, les concurrents directs incluent Figure AI (Figure 02), Agility Robotics (Digit, déployé chez Amazon), et le chinois Unitree. La Gigafactory de Shanghai, implantée en Chine, donnerait également à Tesla un accès privilégié à la chaîne d'approvisionnement en composants robotiques, dominée par des fournisseurs asiatiques, ce qui constitue un levier logistique non négligeable pour atteindre les objectifs de coût évoqués par Musk.

Digit apprend à danser en une nuit grâce à la simulation
100IEEE Spectrum AI 

Digit apprend à danser en une nuit grâce à la simulation

Le robot humanoïde Digit d'Agility Robotics vient d'apprendre à danser en une nuit. Grâce à des données brutes de capture de mouvement, d'animation et de téléopération, l'équipe IA de l'entreprise a développé de nouvelles capacités de contrôle corporel via un entraînement par renforcement en simulation transféré ensuite au robot réel. Dans le même temps, la startup Generalist AI a annoncé GEN-1, un modèle d'IA généraliste pour la robotique physique atteignant 99 % de taux de réussite sur des tâches simples, contre 64 % pour les générations précédentes, avec une vitesse d'exécution environ trois fois supérieure et seulement une heure de données collectées sur robot réel par tâche. Unitree, de son côté, a rendu public depuis le 5 mars 2026 le dataset UnifoLM-WBT, un jeu de données open-source de téléopération whole-body pour robots humanoïdes en environnements réels, disponible sur Hugging Face avec des mises à jour fréquentes. Ces avancées illustrent une accélération concrète sur deux fronts majeurs : la généralisation des capacités motrices et la réduction des coûts de données d'entraînement. GEN-1 représente un saut qualitatif potentiellement décisif pour la viabilité commerciale des robots de service, en abaissant drastiquement le seuil d'échec sur des tâches répétitives industrielles ou logistiques. L'ouverture du dataset Unitree constitue elle un signal fort pour la communauté académique et les startups qui manquent de ressources pour collecter des données humanoïdes à grande échelle. Par ailleurs, Universal Robots démontre avec THEMAGIC5 comment des cobots automatisent les derniers 5 % d'une production personnalisée, permettant à une entreprise née sur Kickstarter de dépasser les 400 000 paires de lunettes de natation sur mesure vendues dans le monde. Ces démonstrations s'inscrivent dans une dynamique plus large où la frontière entre recherche et déploiement commercial s'efface rapidement. La conférence ICRA 2026 se tiendra à Vienne du 1er au 5 juin, et RSS 2026 à Sydney en juillet, deux rendez-vous clés où beaucoup de ces travaux seront formalisés. Sanctuary AI poursuit quant à elle le développement de ses mains hydrauliques à haute dextérité, capables de réorienter un objet de manière autonome vers une configuration cible. Enfin, la Chine a validé en orbite un bras robotique flexible embarqué à bord du satellite commercial Yuxing 3-06, ouvrant la voie au ravitaillement autonome en orbite. L'ensemble de ces actualités confirme que 2026 marque une inflexion décisive : la robotique physique entre dans une phase d'industrialisation rapide, portée par des modèles IA de plus en plus généralisés et des écosystèmes de données ouverts.

UEUniversal Robots (Danemark) illustre l'adoption des cobots dans la production personnalisée européenne, et la conférence ICRA 2026 à Vienne constituera un relais académique clé pour ces avancées en robotique physique.

HumanoïdesActu
1 source