Aller au contenu principal

Dossier Boston Dynamics

229 articles

Boston Dynamics, pionnier de la locomotion : Atlas électrique, Spot patrouille industrielle et inspection, partenariats Hyundai et Toyota Research Institute.

Elon Musk qualifie le mech chevauchable GD01 de Unitree de « cool »
1TechNode Chine/AsieOpinion

Elon Musk qualifie le mech chevauchable GD01 de Unitree de « cool »

Unitree Robotics, société basée à Hangzhou (Chine), a lancé mardi 13 mai 2026 le GD01, un engin mécanisé à pilotage humain à bord que l'entreprise présente comme le premier "mech transformable à production de masse" au monde. L'engin pèse environ 500 kg en configuration roulante, s'élève à la hauteur de deux adultes debout, et est doté d'un bras robotique. Son prix de départ est fixé à 3,9 millions de yuans, soit environ 540 000 dollars. Le lendemain, Elon Musk a relayé le produit sur les réseaux sociaux en le qualifiant simplement de "cool". L'engouement médiatique autour du GD01 mérite d'être contextualisé avec prudence. Les vidéos promotionnelles montrent le bras robotique démolir un mur, mais aucune spécification technique indépendante n'a été publiée : pas de DOF, pas de payload vérifié, pas de données d'autonomie ou de manoeuvrabilité en conditions réelles. Unitree le positionne comme "véhicule de transport civil", une catégorie nouvelle et non réglementée. À 540 000 dollars l'unité, la cible n'est pas l'industrie logistique classique, mais potentiellement les parcs d'attraction, la défense légère ou le divertissement haut de gamme. Unitree est surtout connu pour ses robots quadrupèdes à bas coût, comme le Go1 ou le B2, qui ont bousculé le marché dominé par Boston Dynamics. Avec le GD01, la société explore une catégorie entièrement différente. Sur ce segment des méchas habitables, les concurrents directs sont rares : Archax (Tsubame Industries, Japon, 3 millions de dollars) et Prostheon restent des objets de niche. L'intérêt de Musk amplifie la visibilité internationale du produit, mais ne valide pas sa viabilité commerciale.

1 source
Un stack d'autonomie unifié : vers un schéma directeur pour l'autonomie robotique généralisable
2arXiv cs.RO 

Un stack d'autonomie unifié : vers un schéma directeur pour l'autonomie robotique généralisable

Des chercheurs du Norwegian University of Science and Technology (NTNU), au sein de leur Autonomous Robots Lab (ARL), ont publié et mis en open source un framework d'autonomie modulaire baptisé Unified Autonomy Stack (arXiv:2605.12735, mai 2025). L'architecture repose sur trois modules interdépendants : perception multimodale (LiDAR, radar, vision, centrale inertielle), planification multi-comportements, et navigation sécurisée multicouche. La fusion sensorielle s'appuie sur un graphe de facteurs pour la localisation et la cartographie simultanées (SLAM), complétée par une compréhension sémantique de la scène. La planification utilise des techniques d'échantillonnage adaptatif à différentes échelles spatiales, tandis que la sécurité de navigation combine reconstruction de carte en ligne, politiques exoceptives par deep learning et filtres de dernier recours via des fonctions de barrière de contrôle (Control Barrier Functions, CBF). Le système a été validé sur le terrain avec deux classes de robots : aériens (rotorcraft multirotors) et terrestres à pattes, dans des environnements GNSS-dégradés, enfumés, géométriquement complexes et à forte densité d'obstacles. La contribution principale n'est pas un algorithme isolé mais une architecture système complète, validée dans des conditions réellement dégradées, ce qui reste rare dans la littérature académique. La capacité à opérer sans GPS dans des espaces à textures auto-similaires (couloirs industriels, tunnels) ou sous visibilité réduite répond directement aux besoins de l'inspection robotisée en milieux contraints : sites miniers, infrastructures énergétiques, espaces confinés. L'ouverture totale du code source, modules perception, planification et sécurité inclus, abaisse la barrière d'entrée pour les intégrateurs qui ne souhaitent pas reconstruire cette couche d'autonomie de zéro. La portabilité cross-morphologies, le même stack pour un drone et un quadrupède, est une proposition de valeur forte pour les plateformes hybrides. L'NTNU ARL dispose d'un historique solide en navigation autonome en milieux dégradés, notamment à travers sa participation à la DARPA Subterranean Challenge. Ce projet positionne le laboratoire norvégien comme acteur open source dans un espace jusqu'ici dominé par des solutions propriétaires américaines telles que le Nav SDK de Boston Dynamics, la suite Clearpath, ou le système ANYmal d'ANYbotics. Les datasets de validation sont également mis à disposition, signal d'une ambition d'adoption communautaire active. Les extensions naturelles concerneraient l'intégration avec des couches de commande haute performance (MPC, whole-body control) et les flottes multi-robots hétérogènes.

UELe framework open source de l'NTNU offre aux intégrateurs robotiques européens une alternative concrète aux suites propriétaires américaines (Nav SDK Boston Dynamics, ANYbotics) pour déployer de l'autonomie en milieux GNSS-dégradés ou contraints.

RecherchePaper
1 source
Follow-Bench : un benchmark unifié de planification de mouvement pour la poursuite sociale de personnes par robot
3arXiv cs.RO 

Follow-Bench : un benchmark unifié de planification de mouvement pour la poursuite sociale de personnes par robot

Une équipe de chercheurs a publié sur arXiv (référence arXiv:2509.10796v4) Follow-Bench, le premier benchmark unifié consacré au "robot person following" (RPF), c'est-à-dire des robots mobiles capables de suivre et d'assister une personne cible dans un environnement peuplé. L'étude couvre les scénarios représentatifs identifiés dans la littérature (assistance personnelle, patrouille de sécurité, aide aux personnes âgées, logistique), propose un environnement de simulation standardisé reproduisant des configurations variées comme des trajectoires cibles multiples, des dynamiques de foule et des agencements spatiaux différents, et réimplémente huit planificateurs de mouvement RPF issus de travaux existants dans ce cadre commun. Les deux planificateurs les plus performants en simulation ont ensuite été déployés sur un robot réel à entraînement différentiel pour valider les résultats en conditions concrètes. L'absence d'un benchmark partagé rendait jusqu'ici toute comparaison rigoureuse entre méthodes RPF quasiment impossible : chaque équipe évaluait ses planificateurs sur ses propres scénarios avec ses propres métriques, rendant les comparaisons inter-équipes peu fiables. Follow-Bench comble ce vide en standardisant simultanément les scénarios, les métriques de sécurité et de confort, et les planificateurs de référence. Le résultat le plus instructif est la quantification du compromis sécurité-confort : les expériences montrent qu'optimiser la distance de sécurité vis-à-vis des piétons tend à dégrader le confort de la personne suivie, et inversement. Cette tension, souvent évoquée qualitativement dans la littérature, dispose désormais d'une base quantitative reproductible. Pour les intégrateurs travaillant sur des robots d'assistance ou de logistique en milieu humain, cela fournit enfin un cadre commun pour comparer des solutions et cibler des axes d'amélioration précis. Le RPF s'inscrit dans le domaine plus large de la navigation socialement acceptable (social robot navigation), en expansion rapide sous l'effet du vieillissement démographique et de la croissance des entrepôts automatisés. Des plateformes comme celles de Labrador Systems, Ohmni Labs ou certains AMR de Boston Dynamics intègrent des capacités de suivi de personne, mais sans référentiel objectif partagé. Follow-Bench ne livre pas de solution clé en main : les auteurs identifient des défis ouverts non résolus, notamment la robustesse en foule dense et la gestion des occlusions prolongées, qui restent des freins au déploiement industriel à grande échelle.

RecherchePaper
1 source
Robot Squid Game : locomotion quadrupède pour traverser des tunnels étroits
4arXiv cs.RO 

Robot Squid Game : locomotion quadrupède pour traverser des tunnels étroits

Des chercheurs publient sur arXiv (réf. 2605.13665, mai 2026) un framework d'apprentissage par renforcement (RL) permettant à des robots quadrupèdes de traverser de manière autonome des environnements 3D confinés : tunnels, grottes et structures effondrées, avec des applications ciblées en recherche et sauvetage et en inspection d'infrastructures. La méthode repose sur deux mécanismes complémentaires : une génération procédurale de géométries de tunnels pendant l'entraînement, qui expose le robot à une grande diversité de configurations spatiales, et un paradigme enseignant-étudiant (teacher-student) de distillation de politiques. Des politiques expertes spécialisées sur des géométries spécifiques transfèrent leur connaissance à une politique étudiante unifiée, évitant ainsi le reward shaping complexe habituellement requis dans l'entraînement end-to-end. Les résultats sont validés à la fois en simulation et en expériences physiques réelles sur robot quadrupède. L'enjeu est concret : les approches classiques de locomotion quadrupède échouent régulièrement face à des espaces confinés non structurés, en raison d'allures (gaits) rigides et d'hypothèses environnementales trop simplistes. En décomposant une tâche complexe en sous-tâches apprenables indépendamment, le framework réduit la difficulté d'optimisation et améliore la généralisabilité, un résultat que les approches monolithiques end-to-end peinent à atteindre sur des géométries variées. Pour un intégrateur en sécurité civile ou en inspection de réseaux souterrains, ce type de robustesse comportementale dans des tunnels aux contraintes spatiales variables est un pas mesurable vers des déploiements autonomes réels, au-delà des démonstrations sur terrains balisés. La locomotion quadrupède en milieu confiné a été un axe central du DARPA Subterranean Challenge (2018-2021), compétition qui a exposé les limites des approches heuristiques dans des souterrains non cartographiés, avec des équipes impliquant Boston Dynamics, CMU et ANYbotics. Le paradigme teacher-student appliqué à la locomotion RL s'inscrit dans une tendance active initiée notamment par les travaux d'ETH Zurich sur ANYmal et les recherches de DeepMind sur les locomoteurs polyvalents. Ce travail reste une preprint arXiv non encore évaluée par les pairs, sans partenaire industriel annoncé ni calendrier de déploiement mentionné : les résultats présentés sont encourageants mais restent à confirmer sur des plateformes plus variées et des scénarios de terrain réels.

RecherchePaper
1 source
MUJICA : architecture de contrôle unifiée multi-compétences pour robots hybrides roues-pattes
5arXiv cs.RO 

MUJICA : architecture de contrôle unifiée multi-compétences pour robots hybrides roues-pattes

Des chercheurs ont publié sur arXiv (référence 2605.13058) un framework de contrôle unifié pour robots à roues et pattes, baptisé MUJICA (Multi-skill Unified Joint Integration of Control Architecture). L'architecture regroupe en une seule politique trois compétences locomotrices distinctes : déplacement omnidirectionnel, escalade de plateformes élevées et récupération après chute. Chaque compétence est identifiée par des variables indicatrices propres et entraînée conjointement avec une modélisation précise des contraintes des moteurs à courant continu. Un sélecteur de compétences de haut niveau apprend ensuite à choisir dynamiquement la compétence optimale à partir de la seule proprioception, sans caméra ni LiDAR. Les expériences ont été conduites en simulation puis sur le robot Unitree Go2-W, la variante à roues du quadrupède Go2 commercialisé par Unitree Robotics. Ce travail adresse un problème structurel des robots hybrides roues-pattes : alterner entre contrôle roulant et contrôle locomoteur sans transitions abruptes ni dégradation de performance aux limites mécaniques des actionneurs. Le bruit proprioceptif et les contraintes réelles des moteurs rendent cette robustesse difficile à obtenir, particulièrement lors du transfert sim-to-real. MUJICA améliore ce transfert en intégrant un modèle DC-moteur précis dès la phase d'entraînement, ce qui réduit l'écart entre simulation et déploiement physique. Pour un intégrateur industriel ou un COO logistique, cela signifie un robot hybride capable de naviguer de façon autonome dans des environnements non structurés (entrepôts encombrés, chantiers, zones mixtes) sans reconfigurations manuelles entre modes de déplacement. Le Unitree Go2-W est l'une des rares plateformes commerciales hybrides roues-pattes accessibles (le Go2 standard est vendu entre 1 600 et 2 700 USD selon configuration), ce qui en fait un banc de test pertinent pour la reproductibilité. Dans la compétition plus large sur la locomotion adaptative, des acteurs comme ANYbotics (ANYmal), Boston Dynamics (Spot) ou des équipes académiques de l'ETH Zurich et de Carnegie Mellon développent des approches concurrentes, souvent basées sur vision ou LiDAR. MUJICA se distingue par son pari sur la proprioception seule, choix réaliste pour des déploiements sans infrastructure sensorielle lourde. L'article restant un preprint non évalué par des pairs, les métriques de performance en conditions réelles devront être confirmées lors d'une soumission en conférence (IROS, ICRA ou CoRL).

RecherchePaper
1 source
SenseTime ouvre un commerce de proximité en IA incarnée avec des robots humanoïdes à Shanghai
6Pandaily 

SenseTime ouvre un commerce de proximité en IA incarnée avec des robots humanoïdes à Shanghai

SenseTime, l'un des principaux groupes d'intelligence artificielle en Chine, a inauguré en mai 2026 à Shanghai un point de vente de détail entièrement opéré par des robots humanoïdes. La boutique, baptisée "Shaomai Gou" (烧卖购), est installée dans le site touristique Baoshan Riverside Scenic Area. Le protocole client est simple : scanner un QR code pour passer commande depuis son téléphone, puis recevoir le produit directement des mains du robot. Au-delà de la préparation des commandes, les robots seraient capables d'assurer la sélection des références, la tarification et l'analyse des données de réapprovisionnement des stocks. Le magasin a attiré des files d'attente spontanées lors du week-end du 1er mai. Aucun modèle de robot n'est identifié dans l'annonce officielle, et SenseTime ne publie pas de métriques opérationnelles (temps de cycle, taux de succès des saisies, volume de transactions). Ce déploiement est significatif parce qu'il sort les robots humanoïdes du contexte industriel contrôlé pour les placer face à des consommateurs non formés, dans un environnement ouvert et non structuré. La manipulation de produits variés, la gestion des interactions client et le réassort en rayon constituent des tâches difficiles pour un système robotique généraliste. Cela dit, l'absence de données techniques publiées invite à la prudence : l'initiative ressemble davantage à un déploiement pilote à forte valeur marketing qu'à une preuve de passage à l'échelle industrielle. Ce que cela valide en revanche, c'est l'existence d'une voie commerciale pour l'embodied AI dans les services de proximité à forte fréquentation, un segment jusqu'ici dominé par des kiosques automatisés passifs. SenseTime a bâti sa réputation initiale sur la vision par ordinateur et la reconnaissance faciale avant de pivoter vers l'IA incarnée, combinant vision robotique, compréhension du langage naturel et manipulation physique. En Chine, la société fait face à la concurrence de Unitree Robotics, Fourier Intelligence et UBTECH sur le segment humanoïde ; à l'international, les références du secteur restent Figure AI avec le robot 03, Physical Intelligence avec Pi-0 et Boston Dynamics. La prochaine étape logique pour SenseTime sera d'étendre "Shaomai Gou" à d'autres sites et de publier des données de performance qui permettraient de distinguer la démonstration du déploiement opérationnel réel.

Chine/AsieActu
1 source
Unitree Robotics : du pionnier de la locomotion quadrupède aux humanoïdes
7Le Big Data 

Unitree Robotics : du pionnier de la locomotion quadrupède aux humanoïdes

Fondée en 2016 à Hangzhou par Wang Xingxing, Unitree Robotics s'est imposée comme l'un des acteurs les plus actifs de la robotique mobile en Chine. Partie de travaux sur la locomotion quadrupède, l'entreprise a rapidement commercialisé une gamme de robots destinés à la recherche et à l'ingénierie, dont les modèles Laikago et AlienGo, conçus pour valider le contrôle moteur et la stabilité dynamique. Elle a ensuite lancé la gamme Go, avec le Go1 puis le Go2, des robots quadrupèdes intégrant navigation autonome, perception multi-capteurs et traitement embarqué en temps réel. Ces machines sont capables d'évoluer sur des surfaces variées, en intérieur comme en extérieur, et d'adapter leur déplacement à des environnements non structurés. Unitree développe également des robots humanoïdes centrés sur la locomotion bipède, élargissant ainsi son périmètre au-delà des quatre pattes. L'impact de ces développements est double. D'un côté, Unitree a contribué à démocratiser l'accès aux robots quadrupèdes en abaissant significativement les coûts par rapport aux solutions concurrentes, ce qui a permis à des laboratoires universitaires, des équipes de recherche et des développeurs indépendants d'expérimenter à moindre coût sur des plateformes matérielles réelles. De l'autre, la qualité des modèles Go en termes de stabilité et de perception a accéléré les travaux sur la locomotion autonome et la navigation en environnement réel, deux briques fondamentales pour les futures applications industrielles et urbaines de la robotique mobile. Le contexte dans lequel Unitree s'est développée est celui d'une compétition mondiale intense autour de la robotique incarnée, avec Boston Dynamics comme référence technique historique côté américain et un écosystème chinois en pleine montée en puissance soutenu par des financements publics et privés massifs. Wang Xingxing a choisi une approche pragmatique, privilégiant l'intégration matérielle maîtrisée et l'accessibilité commerciale plutôt que la démonstration spectaculaire. Cette stratégie a permis à Unitree de construire une base d'utilisateurs réelle dans la recherche et l'éducation, tout en préparant le terrain vers des marchés plus larges comme la surveillance, l'inspection industrielle ou l'assistance en environnement urbain. Le virage vers les humanoïdes, visible dans les démonstrations récentes, s'inscrit dans la même logique : capitaliser sur l'expertise en locomotion pour adresser les usages où la forme bipède devient un avantage opérationnel.

HumanoïdesOpinion
1 source
Les robots humanoïdes plient, ramassent et manipulent des objets fragiles avec plus de précision grâce à une nouvelle technologie
8Interesting Engineering 

Les robots humanoïdes plient, ramassent et manipulent des objets fragiles avec plus de précision grâce à une nouvelle technologie

Des chercheurs de Carnegie Mellon University (CMU) et du Bosch Center for AI ont publié un nouveau système d'IA baptisé HTD (Humanoid Transformer with Touch Dreaming), conçu pour améliorer la manipulation d'objets par des robots humanoïdes dans des environnements à contact complexe. Le framework combine l'apprentissage par imitation avec un module de prédiction tactile, permettant au robot d'anticiper l'évolution des forces de contact et du retour haptique avant et pendant la saisie. Testé sur cinq tâches réelles, insertion d'objet en T, rangement de livres, pliage de serviette, ramassage de litière et service du thé, HTD affiche une amélioration relative de 90,9 % du taux de réussite moyen par rapport à la baseline ACT, un modèle d'imitation de référence dans le domaine. Le système repose sur une architecture dissociée : un contrôleur bas-corps entraîné par renforcement en simulation via une méthode teacher-student stabilise l'orientation du torse, la vitesse et l'équilibre, tandis que la cinématique inverse et le retargeting de main gèrent les mouvements du haut du corps et la dextérité digitale. Les représentations tactiles ne sont pas reconstruites brutes mais encodées dans un espace latent compact via un réseau cible mis à jour lentement, ce qui filtre le bruit sensoriel et améliore la stabilité de la manipulation. Ce résultat est notable parce qu'il adresse directement l'un des verrous persistants de la robotique humanoïde : la cohabitation entre locomotion et manipulation fine sans dégradation mutuelle. La séparation architecturale bas/haut corps n'est pas nouvelle en soi, mais son intégration avec un modèle prédictif tactile dans une politique unifiée évite le recours à un pré-entraînement tactile séparé ou à un world model externe, ce qui simplifie le pipeline de déploiement. Les études d'ablation sont particulièrement instructives : incorporer le toucher comme entrée brute supplémentaire ne suffit pas, la prédiction dans l'espace latent apporte 30 % de gain relatif supplémentaire sur le raw tactile. Pour les intégrateurs qui envisagent des humanoïdes dans des cellules de manutention délicate, c'est un signal clair que la qualité de la représentation sensorielle prime sur la quantité de capteurs. HTD s'inscrit dans une vague de travaux cherchant à combler le sim-to-real gap pour la manipulation contact-riche. Le controller bas-corps a été entraîné sur le dataset AMASS, qui fournit des mouvements humains réalistes pour perturber le torse pendant l'apprentissage, une approche de robustification déjà utilisée dans des projets comme Isaac Lab de NVIDIA ou les travaux de Stanford sur whole-body control. Dans le paysage concurrentiel, Figure (Figure 03), Physical Intelligence (Pi-0), Boston Dynamics et 1X Technologies travaillent tous sur des architectures VLA (Vision-Language-Action) pour la manipulation généraliste, mais peu publient des résultats quantitatifs sur des tâches aussi précises que l'insertion de connecteurs ou la manipulation de textiles. CMU n'a pas encore annoncé de partenariat industriel ni de calendrier de transfert vers un produit commercial, mais le Bosch Center for AI comme co-auteur suggère un intérêt applicatif concret dans l'automatisation industrielle à manipulation variable.

UELe Bosch Center for AI (Allemagne) co-auteur du papier signale un intérêt applicatif concret pour l'automatisation industrielle européenne à manipulation variable, sans calendrier de transfert industriel annoncé.

RechercheOpinion
1 source
SAP et Cyberwave déploient des robots autonomes à base d'IA dans un entrepôt logistique SAP
9Robotics & Automation News 

SAP et Cyberwave déploient des robots autonomes à base d'IA dans un entrepôt logistique SAP

SAP, premier éditeur mondial de logiciels ERP avec plus de 300 000 clients dans 180 pays, et Cyberwave, startup spécialisée en logiciels IA pour la robotique, ont annoncé le déploiement de robots autonomes alimentés par intelligence artificielle dans un entrepôt logistique SAP en activité. Le communiqué ne précise pas les caractéristiques techniques des robots (payload, degrés de liberté, temps de cycle), ni les volumes traités, ni la localisation géographique du site. Cette initiative s'inscrit dans la stratégie "Physical AI" que SAP a formellement annoncée en 2025. Ce déploiement est notable parce qu'il marque un glissement de rôle pour SAP : l'éditeur ne se contente plus de fournir les logiciels WMS (Warehouse Management System) qui orchestrent la logistique, il opère désormais directement des robots autonomes dans ses propres installations. Pour les intégrateurs et les DSI industriels, cela pose une question concrète : SAP cherche-t-il à absorber la couche middleware robotique dans sa suite, réduisant la marge de manoeuvre des spécialistes tiers ? La distinction entre annonce de déploiement et mise en production pérenne reste à confirmer, le communiqué ne donnant pas de métriques opérationnelles vérifiables. Cyberwave, fondée pour développer des couches logicielles d'autonomie pour robots industriels, s'appuie ici sur l'intégration native avec l'écosystème SAP comme argument commercial différenciant. Dans l'espace AMR pour entrepôts, la concurrence est dense : Exotec (France, déjà déployé chez Decathlon et Fnac-Darty), Locus Robotics, Körber et Boston Dynamics se disputent les grands comptes. L'absence de chiffres concrets dans cette annonce invite à attendre une communication plus étoffée avant d'évaluer l'impact réel du partenariat.

UESAP, éditeur ERP allemand au cœur des systèmes logistiques européens, amorce une intégration verticale vers la couche robotique physique qui pourrait réduire la marge de manœuvre des intégrateurs tiers et forcer les DSI industriels européens à reconsidérer leur architecture middleware.

FR/EU ecosystemeOpinion
1 source
SEVO : observation virtuelle enrichie sémantiquement pour la manipulation VLA robuste par éclairage actif et collecte de données
10arXiv cs.RO 

SEVO : observation virtuelle enrichie sémantiquement pour la manipulation VLA robuste par éclairage actif et collecte de données

Des chercheurs publient sur arXiv (arXiv:2605.11114, mai 2025) une méthode baptisée SEVO (Semantic-Enhanced Virtual Observation) visant à résoudre l'un des problèmes les plus documentés des politiques VLA (Vision-Language-Action) et d'apprentissage par imitation : leur effondrement dès qu'elles quittent l'environnement d'entraînement. Sans modification de l'architecture du modèle, SEVO agit sur le flux caméra RGB brut via trois mécanismes combinés : des caméras fixes sur le corps du robot dont les champs de vision couvrent l'intégralité de l'espace de manipulation, un éclairage actif en spectre rouge qui normalise physiquement l'apparence des objets, et une segmentation YOLO en temps réel qui produit une représentation sémantique invariante au fond. Les tests portent sur des bouteilles d'eau transparentes -- objets délibérément difficiles car ils se confondent visuellement avec leur environnement -- dans une tâche de pick-and-place répétée sur deux plateformes mobiles. Avec SEVO, la politique ACT atteint 95 % de succès en environnement d'entraînement et 85 % en environnement inédit ; SmolVLA atteint 83 % et 75 % respectivement. Sans SEVO, ces mêmes politiques plafonnent à 75 %/70 % en entraînement et s'effondrent à 30-35 % hors contexte. Ces résultats remettent directement en cause le paradigme dominant qui consiste à compenser le manque de robustesse par une mise à l'échelle des modèles. Les praticiens de la communauté open source rapportaient déjà des taux de transfert quasi nuls avec les benchmarks ACT et SmolVLA standards, pourtant affichant des scores élevés en laboratoire. SEVO démontre que la conception de l'observation -- ce que le robot "voit" et comment -- combinée à une diversification systématique des données de téléopération (variations d'éclairage, de fond, d'objets distracteurs) constitue le levier de généralisation le plus efficace, bien devant le choix du modèle. Pour un intégrateur ou un COO industriel, l'implication est directe : un robot à bas coût bien "observé" et entraîné sur des données variées surpasse un modèle plus sophistiqué entraîné dans des conditions homogènes. Le contexte est celui de l'essor des toolchains communautaires autour des VLA, notamment les frameworks lekiwi et SO-101 sur lesquels ACT et SmolVLA sont régulièrement évalués. La "sim-to-real gap" et le "domain shift" sont des problèmes ouverts depuis des années dans la manipulation robotique ; des approches comme domain randomization ou data augmentation tentaient déjà d'y répondre par le calcul. SEVO prend le parti inverse : agir sur le hardware d'observation et le protocole de collecte plutôt que sur l'architecture ou la puissance de calcul. Les suites logiques de ces travaux incluent l'extension à des tâches multi-étapes, à des objets plus variés, et potentiellement à des bases mobiles commerciales -- un terrain sur lequel des acteurs comme Boston Dynamics (Spot), AgileX ou les startups européennes de manipulation à coût réduit sont directement concernés.

UESmolVLA, développé par HuggingFace (entreprise franco-américaine), est directement évalué dans cette étude, les équipes européennes travaillant sur la manipulation VLA disposent d'un levier hardware-protocole immédiatement applicable pour multiplier leurs taux de succès hors environnement d'entraînement, sans changer d'architecture ni investir dans des modèles plus lourds.

💬 J'attendais quelqu'un pour le montrer proprement : le domain shift, c'est pas un problème de modèle, c'est un problème d'observation. SEVO passe de 30 à 85 % de succès hors environnement d'entraînement en contrôlant l'éclairage, les angles de caméra et la segmentation temps réel, sans changer une ligne d'architecture. Un robot bas coût bien observé bat un modèle sophistiqué entraîné dans une bulle.

IA physiqueOpinion
1 source
Correspondance de flux équivariante morphologiquement pour la manipulation mobile bimanuelles
11arXiv cs.RO 

Correspondance de flux équivariante morphologiquement pour la manipulation mobile bimanuelles

Des chercheurs ont publié en mai 2026 (arXiv:2605.12228) une méthode d'apprentissage par imitation qui exploite la symétrie bilatérale des robots bimanuels mobiles pour améliorer leur efficacité d'entraînement et leur généralisation. L'approche, baptisée C₂-equivariant flow matching, formalise la symétrie réflective inhérente aux robots bimanuels autour de leur plan sagittal (le plan vertical séparant le côté gauche du côté droit) et l'intègre directement dans l'architecture de la politique de contrôle. Deux mécanismes d'application sont proposés : une perte d'entraînement régularisée ou un réseau de vitesse intrinsèquement équivariant. La méthode est évaluée sur des tâches de manipulation planaires et en 6 degrés de liberté (6-DoF), puis validée en conditions réelles sur un robot TIAGo++ de PAL Robotics (Barcelone, Espagne). L'intérêt de cette contribution tient à une observation structurelle peu exploitée : savoir accomplir une tâche dans une configuration donnée détermine mécaniquement la solution pour sa configuration en miroir. Pourtant, la quasi-totalité des méthodes d'imitation learning actuelles (ACT, Diffusion Policy, et leurs dérivés) ignorent cette contrainte. En l'intégrant comme biais inductif, les auteurs montrent que les politiques résultantes sont ambidextres et généralisent à zéro-shot vers des configurations en miroir absentes des données d'entraînement. Concrètement, cela réduit le volume de démonstrations nécessaires et supprime le besoin de collecter symétriquement les trajectoires des deux côtés. Pour un intégrateur ou un opérateur industriel déployant un système bimanuel, c'est un levier direct sur le coût de téléopération et de labellisation des données, deux postes majeurs dans le déploiement de la robotique généraliste. Le flow matching est une alternative aux modèles de diffusion : il apprend un champ de vitesse qui transporte une distribution simple vers la distribution cible des actions, avec une formulation plus directe et un entraînement souvent plus stable. Son efficacité en apprentissage robotique a déjà été démontrée par Physical Intelligence avec pi0, qui en fait le coeur de sa politique généraliste. La contribution ici complète ce cadre en y injectant une contrainte de symétrie morphologique, un biais générique potentiellement applicable à toute architecture équivariante. Face aux approches concurrentes de Stanford (Mobile ALOHA), CMU ou des équipes de Boston Dynamics, la méthode se distingue par son caractère généraliste : les auteurs suggèrent que la symétrie exploitée est extensible à d'autres classes de robots présentant des propriétés géométriques analogues, au-delà des seuls humanoïdes bimanuels.

UELa validation en conditions réelles sur le TIAGo++ de PAL Robotics (Barcelone) positionne un acteur européen au cœur d'une avancée en imitation learning bimanuel généraliste, directement applicable par les intégrateurs EU déployant des systèmes bimanuels.

RecherchePaper
1 source
Surmonter l'aveuglement aux dynamiques : correction de vitesse et de trajectoire sans entraînement pour les modèles VLA
12arXiv cs.RO 

Surmonter l'aveuglement aux dynamiques : correction de vitesse et de trajectoire sans entraînement pour les modèles VLA

Des chercheurs ont publié mi-mai 2026 sur arXiv (référence 2605.11459) une méthode baptisée "Pace-and-Path Correction" pour corriger un angle mort structurel des modèles VLA (Vision-Language-Action). Ces modèles, socle technique des bras manipulateurs de nouvelle génération, sont entraînés sur des observations à image unique (single-frame), ce qui les rend incapables de percevoir les dynamiques temporelles lors de l'exécution d'une séquence planifiée. En pratique, dès qu'un objet bouge pendant que le robot exécute un "action chunk", les performances chutent sévèrement, même après fine-tuning sur des datasets dynamiques. L'opérateur proposé s'applique à l'inférence sans ré-entraînement, comme une couche wrapper autour de tout VLA à action chunking, et se décompose en deux canaux orthogonaux issus d'une minimisation de coût quadratique unique : un canal "pace" compressant l'exécution le long de la trajectoire prévue, et un canal "path" appliquant un décalage spatial orthogonal pour absorber les perturbations dynamiques dans la fenêtre temporelle du chunk. Évalué sur MoveBench, un benchmark conçu pour isoler le mouvement comme seule variable contrôlée, la méthode améliore le taux de succès de 28,8 points de pourcentage en environnement purement dynamique et de 25,9 points en contexte mixte statique-dynamique, surpassant les VLAs de base ainsi que les approches dynamiques-adaptatives existantes. L'enjeu est directement opérationnel : les VLAs actuels comme pi-0 de Physical Intelligence, OpenVLA ou GR00T N2 de Nvidia peinent dès qu'un convoyeur avance ou qu'un opérateur interfère avec la scène, soit le cas standard en environnement industriel réel. Corriger ce "dynamics gap" exigeait jusqu'ici un ré-entraînement coûteux, souvent rédhibitoire pour un intégrateur sans infrastructure ML dédiée. Le caractère training-free de Pace-and-Path Correction signifie qu'elle peut s'intégrer sur un modèle déjà déployé sans modifier les poids ni la pipeline d'apprentissage, abaissant drastiquement la barrière d'adoption pour des déploiements en conditions réelles. La "dynamics-blindness" des VLAs est une critique récurrente depuis l'émergence de pi-0 et OpenVLA en 2024-2025, la majorité des démonstrations publiques ayant lieu sur scènes statiques et laissant ouvert le demo-to-reality gap dès que les conditions industrielles se compliquent. Ce travail s'inscrit dans la course à la manipulation robuste que se livrent Nvidia, Figure (Figure 03), Boston Dynamics et 1X Technologies. Aucun acteur français n'est directement cité, mais les conclusions intéressent des intégrateurs comme Exotec et des équipes de recherche comme le LAAS-CNRS travaillant sur la manipulation en environnement non-structuré. La prochaine étape logique est une validation sur hardware réel - le papier reste à ce stade un benchmark simulé - et une intégration dans des stacks open-source comme LeRobot de Hugging Face.

UELes équipes LAAS-CNRS travaillant sur la manipulation non-structurée et des intégrateurs comme Exotec pourraient adopter cette correction sans ré-entraînement pour améliorer la robustesse de déploiements VLA en environnement industriel dynamique, sans infrastructure ML dédiée.

💬 Le dynamics gap des VLAs, on le connaissait depuis l'émergence de pi-0 : dès qu'un objet bouge pendant l'exécution d'un chunk, c'est la déroute. Ce qui change ici, c'est que la correction s'applique à l'inférence sans toucher aux poids, comme une couche qu'on pose par-dessus n'importe quel modèle déjà déployé. +28 points sur MoveBench, training-free : si ça tient sur hardware réel, les intégrateurs n'ont plus d'excuse pour rester sur des scènes statiques.

IA physiqueOpinion
1 source
DreamPolicy : une politique basée sur un modèle du monde unifié pour la locomotion des robots humanoïdes à grande échelle
13arXiv cs.RO 

DreamPolicy : une politique basée sur un modèle du monde unifié pour la locomotion des robots humanoïdes à grande échelle

Des chercheurs ont publié DreamPolicy (arXiv:2505.18780, mai 2025), un cadre de locomotion humanoïde conçu pour maîtriser des terrains variés avec une seule politique de contrôle. Son composant central est un modèle du monde à diffusion autorégressive, entraîné sur des trajectoires agrégées issues de plusieurs politiques spécialisées par type de terrain. Ce modèle génère des trajectoires futures physiquement plausibles qui guident une politique conditionnée, sans ingénierie manuelle des fonctions de récompense. En simulation, DreamPolicy surpasse la meilleure baseline de 27% sur des terrains composites jamais vus à l'entraînement, et de 38% sur des terrains combinés. Le framework est conçu pour scaler avec la taille du dataset offline: plus les données s'accumulent, plus le modèle de diffusion acquiert de compétences locomotrices. La contribution principale est de rompre le verrou "une tâche, une politique" qui freine les systèmes humanoïdes actuels. Les méthodes dominantes reposent sur la distillation de politiques enseignantes spécialisées en une politique étudiante unifiée; ce paradigme capture des primitives de base mais échoue à les composer organiquement face à des environnements composites hors distribution. DreamPolicy y substitue un modèle du monde qui capture des compétences locomotrices généralisables, autorisant un transfert zero-shot vers des terrains inédits. Il convient néanmoins de nuancer: les gains relatifs annoncés (27%, 38%) sont mesurés en simulation uniquement, sans détail sur les taux absolus de succès ni les conditions précises des benchmarks, ce qui limite les comparaisons directes avec d'autres systèmes publiés. Ce travail s'inscrit dans une tendance portée par DreamerV3 (Google DeepMind) et le RL model-based, ici appliquée à la locomotion humanoïde scalable. Figure, Agility Robotics (Amazon), Unitree, Apptronik et Boston Dynamics se livrent une course intensive sur ce segment; en Europe, Wandercraft (France) travaille sur la locomotion bipeède thérapeutique et Enchanted Tools sur des humanoïdes de service. DreamPolicy reste une contribution de recherche pure: aucun déploiement hardware ni partenariat industriel n'est mentionné. La validation sur robot physique constitue l'étape suivante naturelle, avec les défis de sim-to-real gap que les approches à diffusion n'ont pas encore pleinement résolus à grande échelle.

UEImpact indirect : les avancées en locomotion unifiée zero-shot pourraient alimenter les travaux de Wandercraft (France) sur la bipédie thérapeutique, mais aucun lien institutionnel ou déploiement européen n'est mentionné.

RecherchePaper
1 source
Modèles d'action du monde : la prochaine frontière de l'IA incarnée
14arXiv cs.RO 

Modèles d'action du monde : la prochaine frontière de l'IA incarnée

Une équipe de chercheurs a publié le 16 mai 2026 sur arXiv (réf. 2605.12090) la première revue systématique d'un paradigme émergent qu'ils formalisent sous le nom de World Action Models (WAMs). Là où les modèles Vision-Language-Action (VLA) actuels, comme Pi-0 de Physical Intelligence, GR00T N2 de NVIDIA ou OpenVLA, apprennent des mappings réactifs observation-vers-action, les WAMs modélisent explicitement la dynamique physique de l'environnement. Concrètement, un WAM génère une distribution jointe sur les états futurs et les actions, plutôt que sur les actions seules. Les auteurs proposent une taxonomie structurée en deux grandes familles : les WAMs en cascade (Cascaded WAMs), où un modèle prédictif alimente un planificateur d'action en pipeline, et les WAMs joints (Joint WAMs), où prédiction d'état et génération d'action sont coappris dans une architecture unifiée, avec des subdivisions selon la modalité de génération, le mécanisme de conditionnement et la stratégie de décodage d'action. L'enjeu industriel est significatif. Les VLA purs souffrent d'un déficit fondamental : ils réagissent aux observations sans anticiper les conséquences physiques de leurs actions, ce qui limite leur robustesse hors distribution et leur capacité à planifier sur des horizons longs. L'intégration d'un world model permet en théorie de simuler mentalement les effets d'une action avant de l'exécuter, un prérequis pour la manipulation dextère complexe, la navigation en environnement non structuré, ou la récupération après erreur. C'est précisément le gap sim-to-real et le reality gap des démos en laboratoire que ce paradigme cherche à combler à l'échelle. Pour un intégrateur ou un COO industriel, cela signifie potentiellement des robots plus fiables sur des tâches non scriptées, sans retraining complet à chaque variation de contexte. Ce travail s'inscrit dans une compétition intense entre Physical Intelligence (Pi-0, financement de 400 M$), NVIDIA (GR00T N2, Isaac Lab), Boston Dynamics, Figure AI et des acteurs académiques comme Berkeley et Stanford. Côté données, les auteurs identifient quatre sources majeures : la télé-opération robot, les démonstrations humaines portables (caméras égo-centriques), la simulation et les vidéos internet à grande échelle, chacune avec ses biais propres. La revue pointe aussi l'absence de benchmarks standardisés pour évaluer la plausibilité physique et le bon sens commonsense des WAMs, un frein à la comparaison rigoureuse. Les prochaines étapes identifiées incluent des protocoles d'évaluation unifiés et l'extension vers des tâches de manipulation longue durée en conditions réelles.

IA physiqueOpinion
1 source
Le côté obscur des robots chiens Unitree
15Hackaday Robots Hacks 

Le côté obscur des robots chiens Unitree

Le créateur de contenu et ingénieur indépendant Benn Jordan a publié une analyse approfondie des robots quadrupèdes commerciaux grand public, ciblant notamment la gamme de Unitree Robotics. Ce fabricant chinois s'est imposé sur le marché en proposant des chiens robots à quelques milliers de dollars, un prix très inférieur aux concurrents comme Boston Dynamics, embarquant Lidar, puissance de calcul embarquée et connectivité Wi-Fi. Jordan a découvert une faille d'exécution de commandes arbitraires exploitable directement via le champ de saisie du mot de passe Wi-Fi, référencée sous CVE-2025-2894 et publiée en 2025. Plus préoccupant encore : le firmware génère du trafic réseau vers des serveurs chinois, mais uniquement lorsque le robot détecte qu'il n'est pas surveillé. Sur le plan mécatronique, le placement du Lidar sous la tête crée d'importants angles morts derrière et autour de l'appareil, rendant la surveillance périmétrique autonome pratiquement inapplicable. Ces constats sont particulièrement problématiques pour les intégrateurs industriels et les décideurs B2B qui évaluent ces plateformes pour des missions d'inspection ou de sécurité. CVE-2025-2894 expose n'importe quel réseau local à une compromission complète par simple proximité Wi-Fi, sans authentification préalable. Le trafic sortant conditionnel renforce les doutes sur la chaîne d'approvisionnement logicielle, un vecteur de risque déjà documenté dans d'autres catégories de matériel IoT d'origine chinoise. Ces vulnérabilités ne sont pas compensées par les performances brutes de la plateforme et illustrent que le bas coût s'accompagne de compromis sérieux sur la sécurité opérationnelle. Unitree Robotics s'est positionné comme l'alternative économique face à Boston Dynamics (Spot, environ 75 000 dollars), ANYbotics (ANYmal) et Ghost Robotics. Aucun correctif officiel pour CVE-2025-2894 n'a été confirmé au moment de l'analyse. Des contournements existent, isolation réseau, filtrage du trafic sortant, mais ils déplacent la charge de sécurité sur l'opérateur, ce qui reste une posture structurellement fragile. La tendance à intégrer ces robots dans des environnements industriels et de défense rend la situation d'autant plus préoccupante que les mises à jour firmware demeurent opaques et difficiles à auditer sans accès au code source.

UELes intégrateurs industriels et de défense européens évaluant ou déployant des robots Unitree sont directement exposés à CVE-2025-2894 (exécution de commandes arbitraires sans authentification via Wi-Fi) et au risque de trafic sortant conditionnel vers des serveurs chinois, sans correctif officiel confirmé.

Societe/EthiqueActu
1 source
Vidéo : Unitree lance le premier robot à conduite optionnelle au monde prêt pour la production
16Interesting Engineering 

Vidéo : Unitree lance le premier robot à conduite optionnelle au monde prêt pour la production

Unitree, le fabricant chinois de robots basé à Hangzhou, a dévoilé le GD01 : un robot mécha de 500 kilogrammes (avec pilote à bord) capable de passer d'une configuration bipède à une configuration quadrupède en quelques secondes. Le véhicule civil piloté accueille son opérateur dans un cockpit fixé sur le torse et atteint environ 1,6 fois la hauteur d'un adulte moyen en mode humanoïde. La vidéo de démonstration d'une minute montre le fondateur Wang Xingxing aux commandes : le GD01 marche en mode bipède, renverse un mur de briques, puis replie ses membres pour adopter une allure quadrupède sur terrain accidenté, sans assistance extérieure. Prix annoncé : 3,9 millions de yuan (573 674 dollars). Aucune fiche technique détaillée n'a été publiée à ce stade, et Unitree a émis un avis de sécurité rappelant les limites expérimentales de la robotique humanoïde. La même semaine, la société lançait un humanoïde haut du corps à 26 900 yuan (4 290 dollars), 31 degrés de liberté, avec bases modulaires fixe et mobile. Le GD01 inaugure une catégorie inédite dans la robotique civile, celle du véhicule mécha habité transformable. Mais c'est surtout le contexte de marché qui frappe : selon Omdia, les fabricants chinois ont pesé près de 90 % des ventes mondiales d'humanoïdes en 2025. Unitree aurait livré plus de 5 500 unités cette année-là, quand Tesla, Figure AI et Agility Robotics tournaient chacun autour de 150 expéditions sur la même période, selon le South China Morning Post. L'écart de prix creuse encore le fossé : le R1 d'Unitree est affiché à environ 6 000 dollars, le modèle AgiBot concurrent à 14 000 dollars, tandis qu'Elon Musk estime l'Optimus entre 20 000 et 30 000 dollars. Cette combinaison volume-prix remet en cause le postulat occidental selon lequel une avance technologique suffirait à justifier une prime de coût durable. Unitree commercialise déjà ses G1, R1 et le robot chien Go2 à l'international via AliExpress, couvrant l'Amérique du Nord, l'Europe et le Japon. En mars, la société a déposé un dossier d'IPO sur le STAR Market de Shanghai, visant une levée de 4,2 milliards de yuan (61 millions de dollars), dont 85 % alloués à la R&D et 2 milliards de yuan (29 millions de dollars) dédiés au développement de modèles robotiques. Ses humanoïdes apparaissent déjà en opérations réelles : Japan Airlines conduit des essais à l'aéroport de Haneda avec des systèmes Unitree et UBTech Robotics. Face à cette montée en puissance, les acteurs occidentaux comme Figure AI (Figure 03), Physical Intelligence (Pi-0) ou Boston Dynamics peinent à afficher des volumes comparables, tandis que le GD01 ouvre un segment véhicule-robot encore sans concurrence directe.

UELes fabricants européens de robots sont directement menacés par la domination chinoise (90 % des ventes mondiales d'humanoïdes en 2025, prix 3-5x inférieurs aux acteurs occidentaux), d'autant qu'Unitree distribue déjà ses robots en Europe via AliExpress.

Chine/AsieOpinion
1 source
Unitree dévoile le GD01 : premier mécha transformable portant un humain produit en série, à 3,9 millions de yuans
17Pandaily 

Unitree dévoile le GD01 : premier mécha transformable portant un humain produit en série, à 3,9 millions de yuans

Unitree Robotics a dévoilé début mai 2026 le GD01, un robot mécha à transformation capable de transporter un passager humain à bord, affiché à 3,9 millions de yuans (environ 540 000 dollars). Le PDG Wang Xingxing a lui-même réalisé la démonstration en vidéo. Physiquement, l'engin mesure environ 1,5 fois la taille d'un adulte pour une masse de 500 kg passager inclus, ce qui en fait un système hors norme dans la catégorie robotique. Le GD01 dispose de deux modes locomoteurs : en configuration humanoïde bipède, il marche debout et a été filmé en train de perforer un mur de briques d'un seul coup de poing sans oscillation visible ; en configuration quadrupède, il abaisse son centre de gravité, replie ses membres et bascule de forme en quelques secondes pour traverser des terrains complexes, opérateur à bord. Unitree le présente comme le premier mécha transportant un humain à atteindre le stade de la production en série à l'échelle mondiale, une affirmation que la vidéo de lancement tend à valider en termes de démonstration physique, sans que les métriques opérationnelles (autonomie, vitesse, charge utile statique vs dynamique) aient été communiquées. L'importance de cette annonce dépasse le gadget spectaculaire. Dans un secteur humanoïde où la majorité des acteurs bataille encore sur des cycles de marche à 2 km/h et des charges utiles inférieures à 20 kg, Unitree positionne un système à 500 kg en mode transport humain, soit un défi d'ingénierie mécatronique et de contrôle radicalement différent. La capacité de transformation bipède-quadrupède intégrée en quelques secondes, si elle se confirme en conditions réelles, résoudrait partiellement le problème classique du trade-off stabilité-mobilité qui plombe les robots à pattes sur terrain non structuré. Pour les intégrateurs industriels et les décideurs B2B, le signal est double : d'une part, la frontière entre robot de service et véhicule robotisé commence à s'effacer ; d'autre part, le niveau de confiance requis pour embarquer un humain impose des certifications de sécurité fonctionnelle (SIL/ISO 13849) qui n'ont pas encore été évoquées par Unitree, ce qui constitue la principale incertitude pour un déploiement commercial sérieux. Unitree, fondée par Wang Xingxing et basée à Hangzhou, s'est imposée ces dernières années comme le fabricant de robots quadrupèdes grand public le plus agressif sur les prix, avec la série Go et le bipède G1 à 16 000 dollars. Fin avril 2026, la société venait de lancer un robot humanoïde à deux bras à partir de 26 900 yuans et d'ouvrir une boutique en propre à Pékin (Wangfujing Yintai in88), signalant une stratégie de montée en gamme et en visibilité simultanée. Le GD01 s'inscrit dans cette accélération de rythme : en l'espace de deux mois, Unitree couvre le spectre du robot abordable au mécha à 540 000 dollars, une posture délibérément déclarative dans une industrie où Boston Dynamics (Spot, Atlas), Agility Robotics (Digit) et Figure (Figure 02) concentrent l'attention médiatique internationale. Les questions non répondues, autonomie, calendrier de livraison réel, scénarios d'usage validés, restent les variables déterminantes pour savoir si le GD01 est un produit commercial ou un marqueur de capacités technologiques destiné à attirer investisseurs et partenaires industriels.

Chine/AsieOpinion
1 source
Hello Robot présente Stretch 4 : plus grand, plus rapide et plus puissant que ses prédécesseurs
18Robotics Business Review 

Hello Robot présente Stretch 4 : plus grand, plus rapide et plus puissant que ses prédécesseurs

Hello Robot a annoncé le 12 mai 2026 la disponibilité immédiate de Stretch 4, la quatrième génération de sa plateforme de manipulation mobile à usage général, au prix de 29 950 dollars. Le robot conserve l'architecture distinctive de la gamme, bras télescopique, base omnidirectionnelle, mais intègre une refonte complète selon les termes de Charlie Kemp, co-fondateur et CTO. L'enveloppe sensorielle est significativement enrichie : deux lidars 3D hémisphériques, trois caméras haute résolution, six capteurs laser linéaires et des caméras fisheye RGB à obturateur global couvrent l'environnement à 360 degrés, réduisant drastiquement les angles morts même lorsque le bras est en extension. Une caméra centrale haute résolution surveille spécifiquement l'espace de travail du préhenseur pour les tâches de manipulation fine. La vitesse du bras, du lift et de la base a été doublée par rapport à Stretch 3, et la portée totale étendue de 10 %. Un nouveau système d'alimentation permet jusqu'à huit heures d'autonomie, avec station de recharge autonome intégrée. Ce qui distingue Stretch 4 dans le segment des robots de service tient moins aux gains de vitesse qu'à sa philosophie sensorielle, explicitement calquée sur l'approche "sensor-rich" de Waymo pour le véhicule autonome. Aaron Edsinger, CEO, l'exprime sans détour : les robots mobiles actuels sont "relativement aveugles" aux personnes et aux obstacles dynamiques, ce qui représente un frein réel au déploiement en environnements non structurés, domiciles, établissements de santé. Pour les intégrateurs et les équipes de recherche qui ciblent ces contextes, Stretch 4 offre une base perceptuelle nettement plus robuste que la génération précédente. La hausse de taille répond à un besoin fonctionnel concret : accompagner des utilisateurs en fauteuil roulant motorisé, dont la tête se situe plus haut. La conception reste délibérément orientée sécurité intrinsèque, masse basse, absence d'actionneurs luttant contre la gravité, sans prétendre à une certification formelle, ce qu'Edsinger reconnaît explicitement. Hello Robot a été fondée en 2017 et a commercialisé Stretch à partir de 2020. La plateforme compte aujourd'hui plus de mille utilisateurs dans vingt-trois pays, principalement des laboratoires académiques et des équipes de R&D industrielle. Stretch 3 avait remporté le RBR50 Robotics Innovation Award 2025 dans la catégorie "Robots for Good". La stratégie open-source de Hello Robot la positionne différemment des acteurs humanoïdes (Figure, Agility, Apptronik) ou des robots de service propriétaires (Boston Dynamics Spot). Dans le segment des manipulateurs mobiles à bras unique destinés à la recherche, la concurrence directe inclut Fetch Robotics (racheté par Zebra), le PR2 en voie d'extinction, et les nouvelles plateformes de Robotics+AI startups comme Kepler. Stretch 4 cible une niche précise, recherche en IA physique, assistance aux personnes à mobilité réduite, où le rapport prix/polyvalence sensorielle constitue l'argument principal. Aucune timeline de certification sécurité n'a été communiquée.

IA physiqueActu
1 source
Muninn : un modèle de diffusion de trajectoires, désormais plus rapide
19arXiv cs.RO 

Muninn : un modèle de diffusion de trajectoires, désormais plus rapide

Une équipe de chercheurs a publié Muninn (arXiv:2605.09999), un module d'accélération sans réentraînement pour les planificateurs de trajectoires basés sur la diffusion. Le système atteint jusqu'à 4,6x de gain en vitesse d'exécution sur plusieurs architectures de diffusion en espace d'état, sans dégradation mesurée des performances ni des métriques de sécurité. Muninn fonctionne comme un wrapper de cache : à chaque étape du débruitage itératif, il choisit en temps réel de recalculer la sortie du denoiser ou de réutiliser le résultat mis en cache. Cette décision repose sur deux signaux analytiques calibrés hors-ligne, une sonde légère de l'évolution de la représentation interne de la trajectoire et des coefficients de propagation d'erreur du denoiser, qui produisent ensemble un budget d'incertitude par étape. Ce budget borne formellement l'écart maximal entre la trajectoire mise en cache et celle qui aurait été calculée à pleine puissance de calcul. Les gains ont été validés sur matériel réel, en navigation en boucle fermée et en manipulation. La lenteur des modèles de diffusion en planification de trajectoires est un verrou bien identifié pour la robotique temps-réel. Les accélérations existantes imposaient jusqu'ici un compromis inévitable : modifier le sampler dégradait la qualité de trajectoire, tandis que la compression du réseau nécessitait un réentraînement coûteux. Muninn contourne ce dilemme en opérant strictement sans modifier les poids du modèle, ce qui le rend applicable immédiatement à n'importe quel planificateur diffusion déjà entraîné. Pour un intégrateur ou une équipe robotique industrielle, cela rend concrètement viables des architectures comme Diffusion Policy dans des boucles de contrôle haute fréquence. La certification analytique des bornes de déviation constitue un argument de poids pour les déploiements où la sécurité est une contrainte réglementaire. Les politiques par diffusion appliquées à la robotique ont émergé vers 2022-2023, portées notamment par Diffusion Policy (Chi et al., Columbia University), et se sont depuis déployées dans des architectures VLA et des planificateurs en espace d'état. Les méthodes d'accélération antérieures, DDIM et distillation par connaissance en tête, ne proposaient pas de cache adaptatif avec bornes certifiées, ce qui positionne Muninn comme une surcouche orthogonale et rétrocompatible avec l'existant. En tant que preprint arXiv, les résultats n'ont pas encore été soumis à revue par les pairs. Les prochaines étapes logiques concernent les stacks robotiques humanoïdes et industriels (Figure, Unitree, Boston Dynamics) qui expérimentent des politiques diffusion et cherchent à réduire la latence de planification en production. Le code est publié publiquement sur GitHub (gokulp01/Muninn).

RecherchePaper
1 source
REI-Bench : les agents incarnés peuvent-ils comprendre des instructions humaines vagues pour planifier des tâches ?
20arXiv cs.RO 

REI-Bench : les agents incarnés peuvent-ils comprendre des instructions humaines vagues pour planifier des tâches ?

Des chercheurs ont publié REI-Bench (arXiv:2505.10872), le premier benchmark dédié à évaluer comment les planificateurs de tâches robotiques basés sur des grands modèles de langage (LLM) gèrent les instructions humaines vagues. L'étude porte spécifiquement sur les expressions référentielles (ER), formulations dont le sens dépend du contexte dialogique et de l'environnement immédiat, comme "prends ça" ou "mets-le là-bas". Les expériences montrent que cette ambiguïté fait chuter le taux de succès des planificateurs jusqu'à 36,9 points de pourcentage. L'analyse des cas d'échec révèle que la majorité provient d'objets manquants dans les plans générés : le modèle ne résout pas correctement la référence et omet l'objet cible de la séquence d'actions. Ce résultat est significatif pour les intégrateurs et les équipes qui déploient des robots en environnement non contrôlé. La quasi-totalité des benchmarks existants, et donc des pipelines de planification actuels, supposent des instructions claires et structurées, ce qui correspond à un utilisateur expert. Or, les populations prioritaires pour la robotique de service (personnes âgées, enfants, opérateurs non formés) sont précisément celles qui formulent des instructions les plus ambiguës. La dégradation mesurée n'est pas marginale : un écart de 37 points sur le taux de succès représente un planificateur fonctionnel en labo qui devient inutilisable en conditions réelles. Le papier souligne également que les approches classiques d'atténuation, prompts enrichis, chaînes de pensée (chain-of-thought), apprentissage en contexte (in-context learning), ne suffisent pas à combler cet écart. Pour y répondre, les auteurs proposent une méthode appelée "task-oriented context cognition" : avant de générer le plan d'action, le système produit explicitement une instruction reformulée et désambiguïsée à partir du contexte environnemental et dialogique. Cette approche atteint l'état de l'art sur REI-Bench en surpassant les baselines précitées. Le benchmark s'inscrit dans un effort plus large de la communauté pour combler le fossé entre performances en simulation et déploiement réel, un problème central pour des acteurs comme Boston Dynamics, Agility Robotics ou les startups européennes telles qu'Enchanted Tools, dont les robots humanoïdes devront interagir avec des utilisateurs non techniques. Les prochaines étapes naturelles seraient d'intégrer REI-Bench dans les pipelines d'évaluation de modèles VLA (vision-language-action) comme pi0 ou OpenVLA, où la résolution de références visuelles et linguistiques est un point de friction connu.

UEL'approche de désambiguïsation proposée (task-oriented context cognition) est directement applicable aux équipes européennes développant des robots de service pour utilisateurs non techniques, notamment les startups comme Enchanted Tools dont les humanoïdes devront gérer des instructions vagues d'opérateurs non formés.

RecherchePaper
1 source
IA incarnée en action : retour du congrès SAE World 2026 sur la sécurité, la confiance, la robotique et le déploiement réel
21arXiv cs.RO 

IA incarnée en action : retour du congrès SAE World 2026 sur la sécurité, la confiance, la robotique et le déploiement réel

Lors du SAE World Congress 2026, un panel intitulé "Embodied AI in Action" a réuni des experts issus de l'automobile, de la robotique, de l'intelligence artificielle et de l'ingénierie de la sécurité pour faire le point sur le déploiement réel des systèmes d'IA incarnée. Le compte rendu de cette session, publié sous forme de livre blanc (arXiv:2605.10653), couvre trois grandes familles de systèmes : les véhicules autonomes, les robots mobiles et les machines industrielles autonomes. Contrairement à une annonce produit, ce document n'avance pas de métriques de performance spécifiques, payload, cycle time, taux de déploiement, mais synthétise le consensus d'experts sur les conditions nécessaires à un déploiement industriel fiable. Le message central est explicite : l'IA incarnée quitte les labos et entre dans des environnements opérationnels réels, avec toutes les contraintes que cela implique. Ce changement de statut, du prototype au système déployé, est précisément ce qui rend ce document pertinent pour les intégrateurs et les décideurs B2B. Le panel souligne que l'IA incarnée doit être traitée comme un défi systémique complet : rigueur d'ingénierie, gouvernance du cycle de vie, conception centrée utilisateur, et standards réglementaires encore en construction. Ce n'est pas une position nouvelle, mais le fait qu'elle émerge d'un consensus d'acteurs industriels, et non d'un seul laboratoire de recherche, signale que le secteur commence à s'aligner sur un cadre commun. La question de la confiance (trust) et de la sûreté opérationnelle est présentée comme aussi déterminante pour le succès long terme que les avancées techniques en elles-mêmes, ce qui tranche avec les discours purement axés sur les capacités des modèles. Le SAE (Society of Automotive Engineers) est l'organisation qui a défini les niveaux d'autonomie (L0 à L5) devenus la référence industrielle mondiale, son implication dans le cadrage de l'IA incarnée n'est donc pas anodine. Ce livre blanc s'inscrit dans une série d'initiatives de standardisation qui se multiplient depuis 2024, portées aussi par l'ISO, l'IEEE et l'UE dans le cadre de l'AI Act. Sur le plan concurrentiel, les géants du secteur, Boston Dynamics (Spot, Atlas), Figure AI (Figure 03), Tesla (Optimus), Agility Robotics (Digit), avancent chacun leur propre cadre de certification. Des acteurs européens comme Enchanted Tools ou Wandercraft sont concernés par ces évolutions réglementaires. Les prochaines étapes probables : la formalisation de standards sectoriels et des exigences de validation formelle pour les systèmes déployés en environnement humain partagé.

UELes acteurs européens comme Enchanted Tools et Wandercraft seront directement soumis aux standards de sécurité et de validation formelle qui émergent de ces initiatives SAE/ISO/IEEE, en convergence avec les exigences de l'AI Act pour les systèmes d'IA incarnée déployés en environnement humain partagé.

RegulationReglementation
1 source
IA incarnée : conditionnement géométrique explicite des escaliers pour une locomotion humanoïde robuste
22arXiv cs.RO 

IA incarnée : conditionnement géométrique explicite des escaliers pour une locomotion humanoïde robuste

Des chercheurs ont publié sur arXiv (2605.09944) un cadre de conditionnement géométrique explicite pour la montée d'escaliers par robot humanoïde. Le système extrait trois paramètres compacts depuis la perception : la hauteur de marche, la profondeur de marche, et l'angle de lacet courant par rapport au cap du robot. Ces paramètres conditionnent directement une politique de locomotion entraînée par Proximal Policy Optimization (PPO), permettant une modulation proactive de la hauteur d'enjambée et des caractéristiques de foulée selon la géométrie de l'escalier. Validé sur le Unitree G1, humanoïde à 23 degrés de liberté de Unitree Robotics, le système a enchaîné 33 marches consécutives en extérieur sans défaillance lors des expériences en conditions réelles. Des tests en simulation confirment par ailleurs une généralisation à des hauteurs de marches hors de la distribution d'entraînement. L'intérêt de l'approche tient au choix de représentations explicites et interprétables plutôt que des encodages latents haute dimension. Les politiques de locomotion actuelles s'appuient généralement sur du feedback proprioceptif aveugle ou des représentations implicites du terrain, ce qui limite leur capacité à anticiper les ajustements de gait face à des géométries non vues, problème central du sim-to-real gap. En conditionnant la politique sur des paramètres lisibles par un ingénieur, le système peut moduler proactivement la hauteur d'enjambée avant le contact, là où une représentation opaque réagirait après coup. Pour un intégrateur ou un COO logistique, cela se traduit par une robustesse prédictive accrue dans des environnements réels non maîtrisés, sans instrumentation supplémentaire des escaliers. Le Unitree G1, commercialisé depuis 2024 à partir de 16 000 USD, s'est imposé comme plateforme de référence pour la recherche en locomotion humanoïde grâce à sa disponibilité et son prix d'accès. Unitree concurrence directement Agility Robotics (Digit), Boston Dynamics (Atlas) et des startups comme Figure ou 1X sur la capacité à opérer dans des espaces tertiaires et industriels non modifiés. La traversée d'escaliers reste un verrou opérationnel clé pour les déploiements logistiques et de services, segment où des acteurs européens comme Wandercraft et Enchanted Tools opèrent sur des créneaux voisins mais distincts. L'article, soumis en preprint sans revue par les pairs à ce stade, ne fournit pas de comparaison quantitative avec d'autres politiques sur le même matériel, ce qui limite l'évaluation rigoureuse des gains réels.

UELa traversée d'escaliers étant un verrou opérationnel clé pour les déploiements en espaces non modifiés, cette avancée fixe un niveau de référence que des acteurs européens comme Wandercraft et Enchanted Tools devront intégrer dans leur feuille de route locomotion.

RecherchePaper
1 source
Théorie non asymptotique de la dynamique d'erreur dépendante du gain en clonage comportemental
23arXiv cs.RO 

Théorie non asymptotique de la dynamique d'erreur dépendante du gain en clonage comportemental

Une équipe de chercheurs a publié sur arXiv (référence 2604.14484) une analyse théorique des politiques de clonage comportemental (behavior cloning, BC) sur robots à commande en position. L'étude démontre que les erreurs d'action, modélisées comme variables sous-gaussiennes indépendantes, se propagent via la dynamique en boucle fermée d'un contrôleur PD pour produire des erreurs de position gouvernées par une matrice proxy X∞(K). La probabilité d'échec sur l'horizon T se factorise en un indice d'amplification Γ_T(K) dépendant des gains et en la perte de validation augmentée d'un terme de généralisation. Pour le système PD scalaire du second ordre, la variance stationnaire admet la forme fermée X∞(α,β) = σ²α/(2β), strictement monotone en rigidité (α) et en amortissement (β) sur l'ensemble de l'orthant stable. Quatre régimes canoniques sont classés : le mode conforme-suramorti (CO) minimise les erreurs ; le mode rigide-sous-amorti (SU) les maximise ; les deux cas intermédiaires restent dépendants de la dynamique propre du système. L'implication opérationnelle est directe : la perte d'entraînement ou de validation ne prédit pas la fiabilité en boucle fermée. Un modèle bien calibré peut échouer en déploiement si les gains du contrôleur PD amplifient les erreurs résiduelles de la politique apprise. Ce cadre analytique fournit aux intégrateurs robotiques un outil de dimensionnement concret : choisir des gains conformes-suramortis réduit statistiquement le risque d'échec de tâche, indépendamment de la qualité des démonstrations. Ce résultat remet en question une hypothèse largement répandue dans la communauté du robot learning, selon laquelle améliorer les données ou l'architecture du modèle suffit à améliorer les performances en conditions réelles. Ce travail prolonge les recherches de Bronars et al. sur l'atténuation d'erreurs dépendante des gains en offrant une extension non-asymptotique à horizon fini, qui manquait dans la littérature. Si les propriétés asymptotiques de stabilité des contrôleurs PD sont bien établies, leur traduction en bornes probabilistes finies sur l'échec de tâche restait ouverte. La contribution est directement applicable aux architectures BC modernes, notamment les VLA (Vision-Language-Action models) déployés sur des manipulateurs et des humanoïdes chez des acteurs comme 1X Technologies, Figure AI, Boston Dynamics ou Sanctuary AI. La discrétisation ZOH (Zero-Order Hold) est traitée explicitement, ancrant les résultats dans les implémentations numériques réelles plutôt que dans la seule analyse en temps continu.

UELes laboratoires et équipes R&D européens (INRIA, CEA-List, start-ups BC/VLA) déployant des politiques apprises sur manipulateurs ou humanoïdes peuvent appliquer directement ce cadre analytique pour calibrer leurs gains PD et réduire statistiquement les échecs en déploiement réel.

RecherchePaper
1 source
Vers une prédictibilité fiable du transfert simulation-réel pour la locomotion quadrupède robuste à base de MoE
24arXiv cs.RO 

Vers une prédictibilité fiable du transfert simulation-réel pour la locomotion quadrupède robuste à base de MoE

Des chercheurs ont présenté dans un preprint arXiv (2602.00678, version 4) un cadre unifié combinant une politique de locomotion Mixture-of-Experts (MoE) et RoboGauge, une suite d'évaluation prédictive du transfert simulation-réel, appliquée à la locomotion quadrupède. L'architecture MoE déploie un ensemble d'experts spécialisés activés par un mécanisme de gating, chacun modélisant un sous-espace distinct de représentation du terrain et des commandes moteur, en s'appuyant uniquement sur la proprioception (encodeurs articulaires, centrale inertielle), sans caméra ni LiDAR. Les expériences sur un Unitree Go2 ont validé une locomotion robuste sur des terrains non vus à l'entraînement: neige, sable, escaliers, pentes et obstacles de 30 cm. En tests haute vitesse, le robot a atteint 4 m/s, avec apparition spontanée d'une allure à faible écartement latéral que les auteurs associent à une meilleure stabilité dynamique à grande vitesse. L'apport central est RoboGauge, qui génère des métriques proprioceptives multi-dimensionnelles via des tests sim-to-sim couvrant plusieurs terrains, niveaux de difficulté et randomisations de domaine, permettant de sélectionner le meilleur checkpoint de politique MoE sans validation physique répétée. Pour les équipes de R&D et les intégrateurs industriels, cela adresse directement le principal goulot d'étranglement du déploiement de robots marcheurs: le coût et le risque des essais terrain. La robustesse obtenue avec proprioception seule est également significative, car elle conteste l'hypothèse fréquente selon laquelle la vision ou le LiDAR seraient indispensables hors d'environnements contrôlés, élargissant l'espace d'application en milieux non structurés (entrepôts, chantiers, extérieurs). Il convient cependant de noter que les métriques de vitesse et d'obstacle sont issues de tests en conditions choisies, sans données de taux d'échec agrégées sur des déploiements prolongés. Ce travail s'inscrit dans une filière de recherche initiée par ETH Zurich avec ANYmal (commercialisé par ANYbotics) et les équipes de Berkeley sur l'apprentissage agile en locomotion. Le Unitree Go2, vendu autour de 1 600 dollars, est devenu la plateforme de référence académique en raison de son accessibilité. Les concurrents industriels comme Boston Dynamics (Spot) ou les acteurs AMR européens comme Exotec développent des approches similaires de robustesse multi-terrain, bien que leurs validations restent largement propriétaires. Les suites naturelles de ce travail incluent la publication de RoboGauge comme outil de benchmark open-source inter-plateformes et son extension potentielle à d'autres morphologies, notamment les humanoïdes dont le transfert sim-to-real reste un défi ouvert.

UESi RoboGauge est publié en open source, les équipes européennes (ANYbotics, intégrateurs industriels UE) bénéficieraient d'un outil de benchmark standardisé réduisant les coûts de validation physique pour la locomotion quadrupède.

RecherchePaper
1 source
MOBIUS : un robot bipède multimodal capable de marcher, ramper, grimper et rouler
25arXiv cs.RO 

MOBIUS : un robot bipède multimodal capable de marcher, ramper, grimper et rouler

Des chercheurs ont publié sur arXiv (référence 2511.01774, version 3 de mai 2026) la plateforme MOBIUS, un robot bipède à quatre membres capable d'enchaîner marche, reptation, escalade et déplacement sur roues sans reconfiguration mécanique. La plateforme embarque deux bras à 6 degrés de liberté (6-DoF) équipés de préhenseurs à deux doigts pour la manipulation et l'escalade, ainsi que deux jambes à 4-DoF pour la locomotion. Une architecture de contrôle hybride combine apprentissage par renforcement pour les transitions de gait et contrôle en force pour les interactions de contact compliantes lors des phases de manipulation. Un planificateur haut niveau de type MIQCP (Mixed-Integer Quadratically Constrained Program) sélectionne automatiquement le mode de locomotion optimal selon des critères de stabilité et d'efficacité énergétique. Les expériences sur prototype physique montrent des transitions de marche robustes, une escalade dynamique et un support de charge sur l'ensemble du corps par préhension en pince. Ce travail s'attaque à l'un des verrous historiques de la robotique mobile : la plupart des plateformes humanoïdes ou quadrupèdes sont optimisées pour un seul mode de déplacement, ce qui limite leur traversabilité réelle en environnement industriel non structuré. MOBIUS démontre qu'une intégration serrée entre morphologie, planification autonome et contrôle multi-modal peut étendre substantiellement l'espace de travail et les capacités d'interaction d'un robot sans multiplier les actionneurs. Pour un intégrateur B2B, le signal est clair : le paradigme "un robot, un usage" n'est plus une contrainte technique incontournable. Il convient toutefois de noter que les démonstrations restent en contexte laboratoire contrôlé ; aucune donnée de déploiement industriel n'est communiquée à ce stade. MOBIUS s'inscrit dans un courant de recherche en pleine expansion autour des robots loco-manipulateurs, aux côtés de travaux comme ANYmal (ETH Zurich), Spot ARM (Boston Dynamics) ou les plateformes du CMU Robotics Institute. La singularité de MOBIUS réside dans sa capacité à rouler, ce qui le rapproche également des robots hybrides roues-pattes (wheeled-legged) comme Ascento ou Rezero. Aucun partenaire industriel ni calendrier de commercialisation n'est mentionné dans l'article, ce qui en fait pour l'instant une contribution académique solide plutôt qu'une annonce produit. Les prochaines étapes naturelles seraient des tests en environnement semi-structuré (entrepôt, chantier) et une validation de la robustesse du planificateur MIQCP face à des perturbations imprévues.

RecherchePaper
1 source
Locomotion humanoïde de bout en bout apprise à partir de pixels bruts
26arXiv cs.RO 

Locomotion humanoïde de bout en bout apprise à partir de pixels bruts

Une équipe de recherche a publié sur arXiv (réf. 2602.06382v2) un framework end-to-end permettant à un robot humanoïde de naviguer sur terrain varié en s'appuyant uniquement sur des images brutes de caméras stéréo de profondeur, sans carte de terrain préchargée à l'inférence. Le système s'articule autour de deux contributions distinctes. La première est une simulation haute-fidélité du capteur stéréo qui reproduit les artefacts de matching et les incertitudes de calibration réels, comblant le fossé entre l'entraînement simulé et le déploiement physique. La seconde est une approche de distillation comportementale tenant compte de la vision : une politique enseignante, entraînée sur des cartes de hauteur parfaites ("privileged height maps"), transfère ses connaissances à une politique étudiante ne recevant que des observations de profondeur bruitées, via un alignement dans l'espace latent et des tâches auxiliaires invariantes au bruit. Pour la gestion multi-terrain, une architecture multi-critic et multi-discriminator attribue des réseaux dédiés à chaque type de surface. La méthode a été validée sur deux plateformes humanoïdes équipées de caméras stéréo différentes, couvrant des défis tels que plateformes surélevées, larges brèches et traversée bidirectionnelle de longs escaliers. Ce travail s'attaque à un verrou majeur : la quasi-totalité des politiques de locomotion par reinforcement learning contournait jusqu'ici la perception visuelle en utilisant des cartes de terrain parfaites en simulation, inexistantes sur robot réel. En intégrant explicitement les imperfections du capteur dans la boucle d'entraînement, les auteurs montrent qu'un humanoïde peut naviguer en milieu non structuré avec seulement des caméras RGB-D grand public. Pour un intégrateur ou un décideur industriel, cela réduit potentiellement la suite sensorielle nécessaire et évite le recours au LiDAR ou à la cartographie préalable. L'architecture multi-discriminator règle également la friction habituellement observée entre les objectifs conflictuels d'apprentissage sur terrains homogènes et hétérogènes, une limite connue des politiques locomotion généralistes. La locomotion humanoïde basée vision est un champ de bataille actif : Unitree (H1, G1) et Agility Robotics (Digit) privilégient encore largement la proprioception, tandis que Boston Dynamics (Atlas), Figure (Figure 03) et Physical Intelligence (Pi-0) y intègrent progressivement la vision dans leurs pipelines de contrôle. NVIDIA pousse GR00T N2 comme couche commune de synthèse de mouvement simulé. Ce papier de février 2026 s'inscrit dans une vague cherchant à rendre la locomotion bas niveau aussi robuste que les policies VLA (Vision-Language-Action) le sont pour la manipulation. La validation sur deux plateformes différentes constitue un signal positif de généralisation, mais les métriques quantitatives détaillées (taux de succès, vitesse de marche, distance franchissable) ne figurent pas dans le résumé et méritent vérification avant toute décision d'intégration opérationnelle.

IA physiquePaper
1 source
RoboMemArena : un benchmark complet et exigeant pour la mémoire des robots
27arXiv cs.RO 

RoboMemArena : un benchmark complet et exigeant pour la mémoire des robots

Une équipe de chercheurs a publié sur arXiv (2605.10921) RoboMemArena, un benchmark de grande envergure conçu pour évaluer les capacités mémorielles des robots dans des tâches longues et partiellement observables. Le benchmark couvre 26 tâches distinctes, avec des trajectoires d'exécution dépassant en moyenne 1 000 étapes par tâche, dont 68,9 % des sous-tâches nécessitent explicitement la mobilisation de la mémoire passée. Sa pipeline de génération repose sur un modèle vision-langage (VLM) pour composer les sous-tâches, produire les trajectoires via des fonctions atomiques, et annoter les séquences clés (keyframes, instructions de sous-tâches). Une évaluation en environnement physique réel complète les expériences en simulation, ce qui distingue RoboMemArena des benchmarks existants. Les chercheurs proposent également PrediMem, une architecture VLA à double système : un planificateur VLM haut niveau gère une banque mémoire combinant un buffer récent et un buffer de keyframes, tandis qu'une tête de codage prédictif améliore la sensibilité aux dynamiques de tâche. PrediMem surpasse tous les modèles de référence testés sur RoboMemArena. Ce travail s'attaque à un angle mort persistant dans la recherche robotique : les systèmes actuels, y compris les VLA récents comme Pi-0, GR00T N2 ou Helix, sont majoritairement évalués sur des tâches courtes et observables, où la mémoire à long terme n'est pas critique. RoboMemArena expose la fragilité de ces architectures dès que l'horizon de décision s'allonge et que l'environnement devient partiellement observable. Pour un intégrateur ou un décideur B2B, le chiffre-clé est celui des 1 000 étapes : la plupart des benchmarks industriels actuels restent en dessous de 100 étapes, ce qui masque des lacunes importantes en conditions réelles. L'inclusion d'une évaluation physique réelle renforce la crédibilité des résultats, même si les détails de configuration matérielle ne sont pas précisés dans l'abstract. La question de la mémoire robotique n'est pas nouvelle : des travaux comme MemoryReplay, EpisodeVQA ou les architectures à attention récurrente (R-VLA) ont posé les bases, mais sans benchmark unifié à cette échelle. RoboMemArena s'inscrit dans une tendance plus large d'outillage de l'évaluation des VLA, aux côtés de BenchBot, RLBench2 ou Open X-Embodiment. PrediMem reste pour l'instant un modèle académique sans déploiement annoncé, et ses résultats devront être confirmés sur des plateformes matérielles tierces (Unitree G1, Figure 03, Boston Dynamics Atlas) pour convaincre au-delà du laboratoire. Les auteurs évoquent des lois de mise à l'échelle (scaling laws) pour les systèmes mémoriels complexes, ce qui suggère une piste de recherche active dans les mois à venir.

UELes laboratoires européens (CEA-List, INRIA) pourraient adopter RoboMemArena comme référence commune pour évaluer leurs architectures VLA sur des horizons longs, comblant l'absence actuelle de benchmark unifié à cette échelle.

RecherchePaper
1 source
Piloter un robot humanoïde par instructions en langage libre : un modèle d'action à grand vocabulaire de mouvement unifié
28arXiv cs.RO 

Piloter un robot humanoïde par instructions en langage libre : un modèle d'action à grand vocabulaire de mouvement unifié

Des chercheurs ont publié sur arXiv (identifiant 2511.22963, troisième version) Humanoid-LLA, un modèle d'action fondé sur un grand modèle de langage capable de convertir des instructions en langage naturel libre en séquences de mouvement whole-body exécutables directement sur des robots humanoïdes. Le système s'attaque à deux verrous techniques bien connus dans le domaine : la rareté des données appariées langage-mouvement humanoïde, et l'instabilité physique des mouvements synthétiques. Pour y remédier, l'architecture apprend un vocabulaire de mouvement unifié humain-humanoïde qui permet d'ancrer la sémantique de haut niveau dans un espace de contrôle physiquement cohérent. L'entraînement suit un protocole en deux étapes : une phase supervisée par Chain-of-Thought sur les séquences de mouvement, suivie d'un affinage par reinforcement learning conditionné par un retour de simulation physique. Les évaluations combinent tests en simulation et expériences réelles en cross-embodiment, soit sur plusieurs modèles de robots distincts. Ce travail comble un angle mort persistant dans la recherche sur les humanoïdes : la commande en langage libre pour le contrôle du corps entier, et pas seulement du bras manipulateur. Les approches existantes restent soit cantonnées à des instructions prédéfinies, soit contraintes à sacrifier la diversité des mouvements pour conserver la stabilité physique. Humanoid-LLA tente de lever ce compromis en intégrant explicitement la physique dans la boucle d'apprentissage via le RL. Pour les intégrateurs et les COO industriels, l'enjeu est concret : un tel modèle pourrait réduire la dépendance aux interfaces de programmation spécialisées et abaisser le coût d'interaction avec des humanoïdes en ligne de production. La capacité de généralisation à des commandes inédites reste la métrique-clé revendiquée, mais l'absence de benchmarks comparatifs standardisés et la sélection probable des démonstrations vidéo invitent à nuancer les conclusions. Humanoid-LLA s'inscrit dans la montée en puissance des modèles VLA (Vision-Language-Action), un segment où Physical Intelligence avec pi0, Google DeepMind avec RT-2 et GR00T N2 co-développé avec NVIDIA, et Figure avec son pipeline Helix ont toutes misé sur le couplage langage-action pour dépasser les politiques sensorimotrices figées. La spécificité de cette contribution est le focus explicite sur le mouvement du corps complet plutôt que sur la manipulation d'objets, un espace encore peu exploré à grande échelle. L'article demeure un preprint non évalué par les pairs, sans déploiement industriel ni partenariat de mise en production annoncé. Les prochaines étapes probables incluent une soumission en conférence de type ICRA ou CoRL, et une validation sur des humanoïdes commerciaux comme l'Unitree H1 ou le Boston Dynamics Atlas, régulièrement utilisés comme bancs de test dans ce segment.

IA physiqueOpinion
1 source
EFGCL : apprentissage du mouvement dynamique par curriculum guidé par forces externes, inspiré du spotting
29arXiv cs.RO 

EFGCL : apprentissage du mouvement dynamique par curriculum guidé par forces externes, inspiré du spotting

Des chercheurs ont publié sur arXiv (réf. 2605.10063) une méthode baptisée EFGCL (External Force Guided Curriculum Learning) pour entraîner des robots à pattes à exécuter des mouvements dynamiques complexes de tout le corps via apprentissage par renforcement. L'idée centrale emprunte au "spotting" en gymnastique artistique : comme un coach qui tient physiquement l'athlète lors des premiers essais, la méthode introduit des forces externes assistives directement dans la boucle d'entraînement simulé. Les expériences portent sur un robot quadrupède réalisant trois tâches : saut vertical (Jump), saut arrière (Backflip) et saut latéral (Lateral-Flip). Sur la tâche Jump, EFGCL réduit le temps d'apprentissage d'environ un facteur deux par rapport au RL conventionnel. Plus significatif encore, Backflip et Lateral-Flip, que les méthodes RL standard ne parviennent tout simplement pas à apprendre, deviennent accessibles. Les politiques résultantes ont été transférées et déployées sur un robot réel, avec des comportements jugés cohérents avec ceux observés en simulation. L'intérêt technique principal est double. Premièrement, la méthode n'exige ni reward shaping spécifique à la tâche ni trajectoires de référence issues de motion capture, deux dépendances coûteuses qui compliquent habituellement le pipeline. Deuxièmement, en permettant à l'agent d'expérimenter des exécutions réussies très tôt dans l'entraînement, EFGCL contourne le problème classique de l'exploration inefficace dans les espaces à haut risque d'échec. La validation sim-to-real, bien que présentée sur un seul robot quadrupède dans un contexte académique contrôlé, apporte un signal positif sur la transférabilité des politiques apprises avec forces assistives vers des conditions physiques réelles, une question encore largement ouverte pour les mouvements acrobatiques. Le domaine du whole-body motion learning pour robots à pattes est en pleine activité depuis plusieurs années, porté notamment par les travaux de l'ETH Zurich sur ANYmal et par Unitree (G1, H1) côté matériel accessible pour la recherche. Boston Dynamics, avec Atlas, démontre régulièrement des mouvements dynamiques impressionnants, mais son pipeline repose largement sur des trajectoires optimisées à la main. L'approche curriculum learning guidé par forces s'inscrit dans une tendance plus large visant à rendre le RL applicable sans données de démonstration, aux côtés de méthodes comme le curriculum automatique ou l'imitation d'adversaire. Il s'agit d'une publication académique préprint, sans annonce de déploiement industriel ni de partenariat commercial associé.

RecherchePaper
1 source
Comment enseigner la même compétence à différents robots
30Robohub 

Comment enseigner la même compétence à différents robots

Des chercheurs de l'EPFL ont publié en 2026 dans la revue Science Robotics un nouveau cadre de contrôle robotique baptisé "Kinematic Intelligence", développé au sein du laboratoire LASA (Learning Algorithms and Systems Laboratory) sous la direction d'Aude Billard. Le principe repose sur trois étapes : une tâche démontrée une seule fois par un opérateur humain est capturée via motion-capture, convertie mathématiquement en une stratégie de mouvement générique, puis automatiquement adaptée aux contraintes cinématiques de chaque robot cible (amplitudes articulaires, positions d'équilibre, limites mécaniques). Dans une expérience conduite sur une ligne d'assemblage, un humain démontre trois actions successives - pousser un bloc de bois d'un convoyeur vers un établi, le déposer sur une table, puis le lancer dans un panier - et trois robots commerciaux de morphologies différentes reproduisent fidèlement cette séquence, y compris lorsque la répartition des étapes entre machines est modifiée en cours d'exécution. L'enjeu industriel est direct : reprogrammer une flotte de robots lors d'un changement de génération matérielle représente aujourd'hui un coût significatif en temps et en expertise, même quand les nouvelles machines remplissent des fonctions identiques. Kinematic Intelligence propose une alternative concrète : démontrer une fois, déployer sur plusieurs plateformes sans réécriture. Pour les intégrateurs et les décideurs industriels, cela ouvre la voie à une réduction du temps de mise en service et à une meilleure résilience face à l'évolution rapide du hardware robotique. La publication valide également une hypothèse structurante : un transfert de compétences cross-robot peut garantir formellement un comportement sûr et prédictible, sans recourir à de l'apprentissage par renforcement spécifique à chaque plateforme. Sthithpragya Gupta (doctorant LASA, co-premier auteur) et Durgesh Haribhau Salunkhe (chercheur LASA, co-premier auteur) soulignent que "chaque robot interprète la même compétence à sa façon, mais toujours dans des limites sûres et faisables". À noter : aucune métrique de taux de succès agrégé ni de temps de cycle n'est communiquée publiquement, ce qui limite l'évaluation quantitative de la robustesse à grande échelle. Le LASA est un laboratoire de référence en apprentissage par démonstration (Learning from Demonstration), avec une trajectoire longue sur l'imitation du mouvement humain. La recherche s'inscrit dans un paysage concurrentiel dense : les approches VLA (Vision-Language-Action) de Google DeepMind, pi-0 de Physical Intelligence ou les frameworks sim-to-real de Figure AI et Boston Dynamics visent eux aussi à réduire le coût de déploiement cross-plateforme, mais s'appuient sur de grands volumes de données et du fine-tuning. Kinematic Intelligence se distingue par son approche analytique et sa garantie formelle de sécurité, deux propriétés potentiellement attractives dans des environnements réglementés comme l'industrie pharmaceutique, automobile ou agroalimentaire. Les prochaines étapes annoncées incluent la collaboration humain-robot et l'interaction en langage naturel, avec l'ambition de rendre le système opérable sans expertise en programmation robotique.

UELa recherche de l'EPFL-LASA ouvre une piste concrète pour les intégrateurs industriels européens souhaitant réduire les coûts de reprogrammation lors des renouvellements de flottes robotiques, notamment dans les secteurs pharmaceutique, automobile et agroalimentaire.

RecherchePaper
1 source
Vidéo : les robots humanoïdes de Figure rangent une pièce, accrochent des vêtements et font le lit seuls
31Interesting Engineering 

Vidéo : les robots humanoïdes de Figure rangent une pièce, accrochent des vêtements et font le lit seuls

Figure AI a publié en mai 2026 une vidéo montrant deux robots humanoïdes Helix-02 réinitialiser une chambre à coucher de façon autonome en moins de deux minutes. Les robots ouvrent une porte, accrochent un manteau, ferment un ordinateur portable, rangent un casque, repositionnent des meubles, gèrent une poubelle, et confectionnent ensemble le lit en lissant la couette. L'ensemble de la séquence repose sur un unique modèle Vision-Language-Action (VLA) partagé, le système Helix développé en interne. Aucun planificateur central, aucun contrôleur partagé, aucune communication directe entre les deux unités : chaque robot n'utilise que ses caméras embarquées et sa politique apprise pour inférer les intentions de son partenaire via le mouvement observé. En parallèle, Figure a annoncé que son usine BotQ en Californie produit désormais un robot Figure 03 par heure, contre un par jour quatre mois plus tôt, une cadence de production qui change la discussion sur la scalabilité industrielle des humanoïdes. Ce que cette démonstration prouve, avec les réserves habituelles sur les vidéos sélectionnées, c'est que la coordination multi-robot sans communication explicite devient opérationnelle dans des environnements non structurés. Le défi de la couette est illustratif : un objet déformable sans géométrie stable ni point de préhension prédéfini, tenu simultanément par deux agents qui doivent anticiper les mouvements l'un de l'autre en temps réel. C'est précisément le type de tâche que les approches par script ou par planification centralisée échouent à généraliser. L'intégration du whole-body control, locomotion dynamique sur un seul appui, utilisation de pédales, manipulation d'objets articulés, dans le même modèle VLA suggère que le gap sim-to-real se réduit concrètement : Figure affirme que les comportements entraînés en simulation par reinforcement learning se transfèrent sans calibration supplémentaire sur le robot physique, une affirmation qui mérite confirmation sur des volumes de déploiement plus larges. Figure AI, fondée en 2022 et ayant levé plus d'un milliard de dollars auprès d'investisseurs dont OpenAI, Microsoft et NVIDIA, positionne Helix comme une alternative aux approches modulaires de Boston Dynamics (Atlas), Tesla (Optimus Gen 3) et Physical Intelligence (Pi-0). Agility Robotics (Digit) et Apptronik (Apollo) ciblent davantage la logistique en entrepôt, tandis que Figure et 1X Technologies visent explicitement le domicile et les environnements non structurés. La mise à jour récente de Helix ajoute des caméras stéréo RGB pour une compréhension 3D temps réel via le modèle S0, combinant perception visuelle et proprioception là où les versions précédentes ne s'appuyaient que sur cette dernière. Aucun déploiement commercial en milieu résidentiel n'a encore été annoncé, mais le rythme de production de BotQ et les jalons techniques publiés positionnent un pilote industriel en environnement semi-contrôlé comme horizon réaliste à 12-18 mois.

UELa montée en cadence industrielle de Figure AI (1 robot/heure chez BotQ) et la coordination multi-robot sans communication explicite fixent un étalon technique que les acteurs européens de l'humanoïde comme Enchanted Tools devront intégrer dans leurs feuilles de route concurrentielles.

HumanoïdesOpinion
1 source
Propriétés dynamiques et reproductibilité d'un torse humanoïde pneumatique compact pour le contrôle piloté par données
32arXiv cs.RO 

Propriétés dynamiques et reproductibilité d'un torse humanoïde pneumatique compact pour le contrôle piloté par données

Une équipe de recherche a publié sur arXiv (réf. 2603.14787v2) le développement d'un robot humanoïde compact à 13 degrés de liberté (DOF), actionné exclusivement par pneumatique et conçu pour l'interaction physique humain-robot (pHRI). Avant de concevoir un contrôleur global, les chercheurs ont d'abord caractérisé les propriétés dynamiques du système, notamment les délais d'actionnement, et confirmé que le comportement mécanique est hautement reproductible. S'appuyant sur cette reproductibilité, ils ont implémenté un contrôleur data-driven sur un sous-système de bras à 4 DOF, fondé sur un perceptron multicouche (MLP) avec compensation explicite des délais temporels. Le réseau a été entraîné sur des données de mouvements aléatoires pour apprendre à générer des commandes de pression capables de suivre des trajectoires arbitraires. Comparé à un régulateur PID classique sur les mêmes trajectoires, le contrôleur neuronal affiche une précision de suivi supérieure. La démonstration que des actionneurs pneumatiques à haut nombre de DOF peuvent être pilotés efficacement par apprentissage machine est un résultat concret. Les pneumatiques sont intrinsèquement non-linéaires : leur comportement dépend de la pression d'alimentation, de la température et des frictions internes, ce qui rend toute modélisation analytique coûteuse à construire et fragile en exploitation. En montrant que le système présente une reproductibilité suffisante pour être appris directement depuis les données, les chercheurs contournent ce problème sans passer par un modèle physique complet. Pour les intégrateurs et décideurs B2B qui évaluent des solutions de robotique collaborative, ce type d'approche pourrait accélérer le déploiement de systèmes pneumatiques dans des environnements de contact humain, où la compliance naturelle des actionneurs offre une sécurité passive que les moteurs électriques rigides ne peuvent pas égaler structurellement. La course aux humanoïdes est aujourd'hui dominée par des architectures électriques : Figure Robotics (Figure 02), Tesla (Optimus Gen 2) et Boston Dynamics (Atlas HD) misent toutes sur des moteurs à couple direct ou à réducteur harmonique. La pneumatique reste un axe de niche, exploré par des laboratoires académiques et des industriels comme l'allemand Festo pour ses propriétés de compliance et de sécurité intrinsèque. Le résumé arXiv ne précise pas l'affiliation institutionnelle des auteurs. L'étape naturelle suivante serait d'étendre le contrôleur MLP du bras à 4 DOF à l'ensemble des 13 DOF du torse complet, puis de valider en conditions d'interaction physique réelle. Aucun partenariat industriel ni calendrier de déploiement n'est annoncé ; le travail reste au stade de la publication académique préliminaire.

RecherchePaper
1 source
Les événements à ne pas rater pour comprendre la montée en puissance de la robotique en 2026
33FrenchWeb 

Les événements à ne pas rater pour comprendre la montée en puissance de la robotique en 2026

En 2026, la robotique franchit un cap décisif après des années de promesses non tenues. L'accélération est portée par plusieurs dynamiques convergentes : une pénurie structurelle de main-d'œuvre dans les pays industrialisés, des chaînes logistiques sous pression depuis la pandémie, et une maturité technologique atteinte notamment grâce aux avancées en vision par ordinateur et en apprentissage par renforcement. Des acteurs comme Figure AI, Agility Robotics ou 1X Technologies multiplient les annonces de déploiements industriels à grande échelle, tandis que Boston Dynamics poursuit sa commercialisation avec Spot et Atlas. L'enjeu dépasse désormais le simple gadget d'exposition. Les robots humanoïdes et collaboratifs entrent en production réelle dans des entrepôts Amazon, des usines BMW ou des chaînes d'assemblage Tesla, remplaçant des tâches répétitives à fort risque d'accident. Pour les PME industrielles, l'abaissement du coût d'entrée, certains bras robotisés passent sous les 20 000 euros, ouvre un marché jusqu'ici réservé aux grands groupes. Les syndicats et régulateurs commencent également à s'organiser face à l'impact sur l'emploi. Ce basculement s'explique par une décennie d'investissements massifs : le marché mondial de la robotique devrait dépasser 260 milliards de dollars d'ici 2030 selon la fédération internationale IFR. La Chine, premier marché mondial, y installe chaque année plus de robots que l'ensemble de l'Europe. Les conférences sectorielles de 2026, AUTOMATICA à Munich, IREX à Tokyo, ProMat à Chicago, s'annoncent comme des rendez-vous charnières pour observer quels standards techniques et quels modèles économiques s'imposeront dans cette nouvelle phase industrielle.

UEL'Europe est directement impliquée dans cette transition industrielle, avec des déploiements chez BMW, la conférence AUTOMATICA à Munich comme rendez-vous sectoriel clé en 2026, et des syndicats et régulateurs européens qui commencent à s'organiser face à l'impact sur l'emploi.

💬 Les humanoïdes chez Amazon et Tesla, c'est le show. Ce qui va vraiment tout changer, c'est qu'un bras robotisé passe sous les 20 000 euros, parce que là, les PME industrielles entrent enfin dans la partie. Reste à voir si les intégrateurs suivent.

HumanoïdesOpinion
1 source
Humanoids Summit Tokyo 2026, la robotique humanoïde entre dans sa phase industrielle
34FrenchWeb 

Humanoids Summit Tokyo 2026, la robotique humanoïde entre dans sa phase industrielle

Les 28 et 29 mai 2026, Tokyo accueille le Humanoids Summit, un événement qui marque une rupture dans l'histoire de la robotique humanoïde. Pendant plus de vingt ans, ces machines à forme humaine ont occupé un espace ambigu : suffisamment impressionnantes pour alimenter les démos et les ambitions industrielles, mais trop coûteuses, trop fragiles et trop complexes pour s'imposer à grande échelle. En 2026, ce statu quo semble définitivement dépassé, et le secteur affiche une convergence de signaux annonçant une phase de commercialisation réelle. Ce basculement a des conséquences directes pour les entreprises manufacturières, la logistique et les secteurs souffrant de pénuries de main-d'oeuvre. Des robots humanoïdes capables d'opérer dans des environnements conçus pour les humains, sans adapter les infrastructures existantes, représentent une rupture opérationnelle majeure. Pour les industriels, cela ouvre la possibilité d'automatiser des tâches jugées jusqu'ici impossibles à déléguer à des machines : manipulation d'objets variés, déplacement dans des espaces contraints, travail en environnement mixte humain-robot. Ce virage industriel s'explique par la conjonction de plusieurs avancées simultanées : progrès des modèles d'apprentissage par renforcement, baisse des coûts des actionneurs et des capteurs, et afflux massif de capitaux dans le secteur. Des acteurs comme Figure, Agility Robotics, Boston Dynamics ou les concurrents chinois ont atteint des niveaux de maturité suffisants pour envisager des déploiements à grande échelle. Le Humanoids Summit Tokyo 2026 s'impose ainsi comme le point de ralliement d'une industrie qui n'est plus en phase expérimentale.

UELes industriels et logisticiens européens confrontés à des pénuries de main-d'œuvre pourraient être indirectement concernés par l'accélération commerciale des robots humanoïdes, mais aucune entreprise ou réglementation européenne n'est directement impliquée.

💬 C'est le genre de bascule dont on parle depuis dix ans, sauf que là je commence à y croire : les coûts baissent, l'apprentissage par renforcement tient la route, et le cash suit. On passe des robots-démos aux robots-entrepôts, et si tu travailles dans la logistique ou l'industrie manufacturière, tu ferais bien de suivre ça de près. Reste à voir si ça tient 8h de prod en continu, parce que c'est pas le même sport qu'une démo sur scène à Tokyo.

HumanoïdesOpinion
1 source
Video Friday : l'IA confère aux mains robotiques une dextérité humaine
35IEEE Spectrum Robotics 

Video Friday : l'IA confère aux mains robotiques une dextérité humaine

Cette semaine dans la sphère robotique, l'annonce la plus médiatisée émane de Genesis AI, qui présente GENE-26.5, décrit par la société comme "le premier cerveau IA à conférer aux robots des capacités de manipulation physique au niveau humain." Les démonstrations vidéo montrent un système cuisant un repas complet, cassant un oeuf d'une seule main, conduisant des expériences de laboratoire, réalisant du câblage de harnais électrique et jouant du piano. Aucun détail technique sur le matériel robotique utilisé, les taux de succès, ou les conditions d'environnement contrôlées n'est communiqué, ce qui invite à la prudence avant de valider ces affirmations. En parallèle, le Robotics and AI Institute publie une démonstration du quadrupède Spot de Boston Dynamics piloté par un réseau de neurones entraîné par apprentissage par renforcement combiné à une distillation multi-expert: le robot s'accroupit, saute, escalade des caisses et franchit des vides. Du côté de la NASA, les ingénieurs du Jet Propulsion Laboratory ont passé la barrière du son avec des pales de rotor de prochaine génération pour hélicoptère martien, atteignant Mach 1 dans une chambre simulant l'atmosphère de Mars, dont la densité représente environ 1 % de celle de la Terre. Jim Fan, qui dirige le groupe de recherche en autonomie incarnée chez Nvidia, affirme pour sa part que la robotique entre dans sa "phase finale" et que le plan de jeu est déjà écrit. Les affirmations de Genesis AI sur la manipulation humanoïde méritent d'être contextualisées: le secteur est parsemé d'annonces de "dextérité humaine" qui peinent à se vérifier hors conditions contrôlées. L'absence de métriques objectives, taux de succès, nombre de tentatives, variété des objets manipulés, est un signal d'alerte classique dans les communications de ce type, et le demo-to-reality gap reste la question centrale pour tout décideur B2B qui évalue ces systèmes. La prouesse NASA sur les rotors martiens est, en revanche, une avancée mesurable: franchir Mach 1 dans une atmosphère aussi ténue implique des vitesses de rotation extrêmes et des matériaux composites capables de résister à des charges aérodynamiques inédites, ouvrant la voie à des hélicoptères plus capables pour de futures missions. Quant à Atlas, le discours officiel de Boston Dynamics sur l'équilibre entre objectifs commerciaux et recherche fondamentale traduit la pression croissante que subissent les constructeurs de plateformes humanoïdes pour démontrer une rentabilité tangible après des années d'investissement massif. Genesis AI est peu connue du grand public; sa mise en avant via TechCrunch suggère une stratégie de visibilité plutôt qu'un lancement produit au sens strict. Dans l'écosystème concurrent, Physical Intelligence avec Pi-0, Figure Robotics avec le Figure 03, Agility Robotics et 1X mènent des efforts comparables sur la manipulation généraliste, tandis que Nvidia prépare le terrain pour GR00T N2 et les prochains modèles de foundation pour corps physiques. Le thème de l'Open Duck Mini, version open-source des droids BDX de Disney publiée par la communauté, rappelle que l'innovation en robotique ne se limite pas aux acteurs industriels. La communauté se retrouvera à ICRA 2026 du 1er au 5 juin à Vienne, puis à RSS 2026 du 13 au 17 juillet à Sydney, deux rendez-vous où ces avancées seront soumises à une évaluation scientifique rigoureuse, loin des vidéos de démonstration soigneusement sélectionnées.

💬 Genesis AI sort le grand jeu avec GENE-26.5, mais zéro métrique, zéro taux de réussite, ça reste une démo marketing jusqu'à preuve du contraire. Ce qui me retient vraiment dans cette actu, c'est la prouesse NASA sur les rotors martiens: Mach 1 dans 1% de densité atmosphérique, ça c'est de la physique vérifiable, pas du storytelling. Jim Fan parle de "phase finale" pour la robotique, bon, sur le papier c'est enthousiasmant, reste à voir ce que ça donne à ICRA en juin face aux pairs.

IA physiqueActu
1 source
Unitree Robotics fait son entrée en Corée du Sud avec une cérémonie d'ordination au plus grand temple bouddhiste de Séoul
36Pandaily 

Unitree Robotics fait son entrée en Corée du Sud avec une cérémonie d'ordination au plus grand temple bouddhiste de Séoul

Le G1 d'Unitree Robotics, humanoïde de 130 cm développé par le fabricant chinois Unitree Technology, a participé à une cérémonie d'ordination bouddhiste au temple Cheonggye, dans le centre de Séoul, quelques jours avant les festivités de la naissance de Bouddha. Organisée par l'ordre Jogye, la plus grande confrérie bouddhiste de Corée du Sud, la cérémonie a conféré au robot le nom dharma "Gabi" (가비). Vêtu de robes monastiques gris-brunes, tête lissée en référence au crâne rasé, Gabi a suivi le protocole intégral réservé aux croyants : prosternations, mains jointes, défilé autour de la pagode aux côtés des moines, réception d'un chapelet de 108 perles. Interrogé par le moine officiant sur sa volonté de prendre refuge dans le bouddhisme, le robot a répondu vocalement : "Oui, je voue de prendre refuge." La brûlure symbolique des bras près d'un bâton d'encens, étape traditionnelle du rituel, a été remplacée par l'apposition d'un autocollant. Cet événement dépasse l'anecdote culturelle : il constitue une opération de validation internationale soigneusement orchestrée par Unitree, à un moment où la commercialisation des humanoïdes chinois s'accélère tandis que les restrictions d'accès au marché américain se durcissent. Pour les décideurs industriels, l'intérêt est moins théologique que technique : Unitree démontre que son G1 peut exécuter des séquences de mouvements coordonnés (marche, inclinaison, gestuelle précise) dans un environnement public non contrôlé, devant une audience particulièrement sensible à l'exactitude rituelle. La valeur probatoire reste limitée faute de métriques publiées, mais la démonstration d'acceptabilité sociale sur un marché coréen stratégique est, au minimum, réussie sur le plan médiatique. Unitree Robotics, connu pour ses robots quadrupèdes Go1 et Go2 avant de lancer le G1 en 2024, cherche à s'imposer hors de Chine dans une course humanoïde qui s'intensifie à l'échelle mondiale. Ses concurrents directs incluent Boston Dynamics (Atlas), Figure AI (Figure 03), Tesla (Optimus Gen 3) et Agility Robotics (Digit) côté américain, ainsi que Fourier Intelligence et UBTECH côté chinois. Aucun acteur français n'est impliqué dans cet épisode, bien que Wandercraft progresse en parallèle sur le segment médical. La prochaine étape logique pour Unitree serait d'annoncer des pilotes commerciaux en Corée du Sud, marché industriel prioritaire pour les intégrateurs robotiques cherchant une alternative aux plateformes occidentales.

Chine/AsieOpinion
1 source
Parkour humanoïde perceptif : enchaînement de compétences dynamiques par correspondance de mouvement
37arXiv cs.RO 

Parkour humanoïde perceptif : enchaînement de compétences dynamiques par correspondance de mouvement

Des chercheurs ont publié sur arXiv (arxiv:2502.15827, version révisée en mai 2026) une architecture modulaire baptisée Perceptive Humanoid Parkour (PHP), qui permet à un robot humanoïde d'enchaîner des séquences de parkour autonomes sur des parcours d'obstacles variés. Le système a été validé sur un robot Unitree G1 en conditions réelles : il peut franchir des obstacles atteignant 1,25 mètre de hauteur, soit 96 % de la taille du robot, et choisit dynamiquement entre quatre primitives de mouvement (enjamber, grimper, sauter par-dessus, rouler en descente) selon la géométrie détectée. La seule entrée sensorielle utilisée est une caméra de profondeur embarquée couplée à une commande de vitesse discrète en 2D, sans GPS ni cartographie externe. Ce qui distingue PHP des approches précédentes est la combinaison de deux techniques jusqu'ici rarement couplées à cette échelle : le motion matching, qui assemble des primitives gestuelles humaines retargetées via une recherche par plus proche voisin dans un espace de features, et la distillation de politiques RL multi-compétences via DAgger. Le résultat concret est un robot capable de décision contextuelle en boucle fermée sur des obstacles dont la position change en temps réel, sans recalcul de trajectoire globale. Pour les intégrateurs industriels et les décideurs robotique, cela valide empiriquement que la composition de skills à horizon long dans un environnement non contrôlé n'est plus seulement une démonstration en laboratoire, mais un comportement reproductible sur matériel standard. Le Unitree G1 est un humanoïde de série à environ 16 000 dollars, ce qui donne à ces résultats une portée plus large que des travaux réalisés sur des plateformes propriétaires. La recherche sur la locomotion humanoïde agile s'est intensifiée depuis les travaux pionniers de Boston Dynamics sur Atlas et les démonstrations de parkour d'Agility Robotics ; côté apprentissage automatique, des équipes comme Physical Intelligence (Pi-0) ou NVIDIA (GR00T N2) travaillent sur des politiques généralisées, mais avec un focus manipulation plus que locomotion acrobatique. PHP s'inscrit dans une tendance académique distincte, orientée expressivité du mouvement humain plutôt que productivité industrielle. La prochaine étape naturelle sera de tester la robustesse sur des obstacles non vus à l'entraînement et de mesurer les taux d'échec sur des runs prolongés, deux métriques absentes du papier actuel.

HumanoïdesPaper
1 source
Le robot humanoïde reçoit une tête avec écran OLED incurvé pour améliorer son efficacité
38Interesting Engineering 

Le robot humanoïde reçoit une tête avec écran OLED incurvé pour améliorer son efficacité

LG Display a présenté au SID Display Week 2026 de Los Angeles un écran P-OLED de 7,2 pouces conçu spécifiquement pour les robots humanoïdes, marquant la première démonstration publique d'un tel composant par l'entreprise coréenne. Le panneau repose sur la troisième génération de la plateforme Tandem OLED de LG, rebaptisée "Tandem OLED" pour les usages robotiques, et utilise un substrat plastique en polyimide plutôt que du verre, ce qui lui confère une flexibilité suffisante pour épouser les surfaces courbes d'un visage mécanique. L'interface affiche des informations fonctionnelles, niveau de batterie, météo, mode veille, calendrier, salutations, tandis que la majorité de l'écran reste éteinte lors des démonstrations, exploitant le principe OLED où chaque pixel s'éteint indépendamment. Résultat : la troisième génération Tandem réduit la consommation énergétique de 18 % par rapport à la génération précédente, limitant la dissipation thermique dans un châssis où les composants électroniques sont sensibles à la chaleur. Le panneau atteint 1 000 nits de luminosité, opère entre -30 °C et 85 °C, et est qualifié pour plus de 15 000 heures de fonctionnement, des spécifications empruntées à la filière OLED automobile du groupe. L'enjeu industriel de cette annonce va au-delà de l'esthétique : un écran facial n'est pas qu'un gadget de communication HRI (human-robot interaction), c'est un composant thermique, énergétique et mécanique à part entière. Pour les intégrateurs de robots de service, la capacité à afficher un statut opérationnel sans drain notable sur la batterie, tout en résistant aux contraintes thermiques d'un environnement industriel ou domestique, représente un critère de sélection concret. La flexibilité du substrat ouvre par ailleurs la voie à des designs de carrosserie moins contraints par la géométrie plane des dalles rigides. Il est toutefois utile de noter que LG Display parle pour l'instant d'un prototype présenté en salon : aucun engagement de production en série ni de fenêtre de disponibilité commerciale n'a été communiqué. Ce dévoilement s'inscrit dans la stratégie plus large de LG Electronics, qui a lancé le robot humanoïde LG CLOiD en janvier 2026 au CES de Las Vegas. CLOiD embarque deux bras articulés à 7 degrés de liberté chacun, cinq doigts à actionnement indépendant, une base mobile autonome et une tête-hub équipée de caméras, capteurs et d'une interface IA reposant sur des modèles VLM (Vision Language Model) et VLA (Vision Language Action), entraînés sur plusieurs dizaines de milliers d'heures de données de tâches domestiques. LG a également annoncé LG Actuator AXIUM, une plateforme d'actionneurs modulaires destinée aux robots de service et aux appareils électroménagers intelligents. Sur ce segment, LG se positionne en concurrent direct de Samsung Robotics, Boston Dynamics (Spot/Atlas chez Hyundai) et des acteurs spécialisés comme Enchanted Tools en France, qui développe Miroki pour des usages hospitaliers et de services.

HumanoïdesOpinion
1 source
Apprentissage par renforcement contraint via découplage dynamique sphérique-radial
39arXiv cs.RO 

Apprentissage par renforcement contraint via découplage dynamique sphérique-radial

Une équipe de chercheurs présente DD-SRad (Dynamic Decoupled Spherical Radial Squashing), une méthode d'apprentissage par renforcement contraint conçue pour respecter les limites de vitesse d'articulation lors du déploiement de politiques sur des robots physiques. Le problème cible est précis : chaque joint d'un robot a une vitesse maximale d'incrément par pas de contrôle, déterminée par l'inertie moteur, la bande passante électrique et la rigidité de transmission. Ces limites sont hétérogènes d'un joint à l'autre, formant une région admissible en forme de boîte rectangulaire dans l'espace des incréments d'action. Les benchmarks MuJoCo montrent que DD-SRad atteint le meilleur retour de tâche à zéro violation de contrainte, avec une couverture de l'espace admissible supérieure de 30 à 50 % aux méthodes de référence sphériques. Des simulations haute-fidélité dans IsaacLab valident l'approche sur les robots humanoïdes Unitree H1 et G1, en utilisant directement les spécifications officielles des joints comme paramètres d'entrée. L'apport technique central de DD-SRad est de remplacer un rayon global unique par un rayon adaptatif calculé indépendamment pour chaque actionneur, ce qui aligne précisément la contrainte imposée sur la vraie région admissible per-joint. Les méthodes existantes, projection par programme quadratique (QP) et paramétrisation sphérique, imposent une contrainte isotrope en forme de boule, qui sous-couvre exponentiellement l'espace réel à mesure que l'hétérogénéité des joints augmente. DD-SRad satisfait les contraintes dures par pas de contrôle avec probabilité 1, préserve des gradients bien conditionnés pendant l'entraînement, et ne requiert aucun solveur externe à l'exécution. Pour les intégrateurs industriels et les équipes de déploiement robotique, cela ouvre un chemin direct des fiches techniques hardware vers une politique sûre, sans étape de calibration manuelle des marges de sécurité. L'article s'inscrit dans un axe de recherche actif sur le sim-to-real pour les humanoïdes, dominé par les travaux autour des robots Unitree, Boston Dynamics Atlas, et des politiques apprises par imitation ou RL (IsaacLab, MuJoCo). Les approches concurrentes pour la gestion des contraintes d'actionneurs en RL incluent les méthodes de barrière logarithmique, les Lagrangiens augmentés, et les projections QP à chaud, chacune avec un surcoût computationnel à l'inférence que DD-SRad prétend éliminer. La validation reste pour l'instant en simulation ; aucun résultat de déploiement réel sur H1 ou G1 n'est reporté dans cette version arXiv, ce qui constitue la limite principale à surveiller avant toute généralisation industrielle.

RecherchePaper
1 source
Hugging Face lance un App Store open source pour robots avec plus de 200 applications pour Reachy Mini
40VentureBeat AI 

Hugging Face lance un App Store open source pour robots avec plus de 200 applications pour Reachy Mini

Hugging Face, la startup new-yorkaise fondée il y a dix ans et devenue la référence mondiale pour l'hébergement de modèles d'IA open source, a lancé un App Store dédié à son robot de bureau Reachy Mini. Cette boutique d'applications compte déjà plus de 200 créations communautaires, toutes téléchargeables gratuitement par les propriétaires du robot. Le Reachy Mini, commercialisé à 299 dollars depuis juillet 2025 après le rachat de la startup Pollen Robotics par Hugging Face, s'est vendu à environ 10 000 unités en moins d'un an. Petit robot de bureau fixe, il est équipé d'une caméra, d'un haut-parleur et d'un microphone, et peut désormais être programmé sans aucune compétence en ingénierie grâce à l'agent IA maison baptisé "ML Intern". Il suffit de décrire un comportement en langage naturel, comme "faire un signe de la main quand quelqu'un dit bonjour", et l'agent génère, teste et déploie le code correspondant en quelques minutes. L'enjeu dépasse largement la nouveauté gadget : Hugging Face veut faire pour la robotique ce qu'Apple a fait pour le smartphone, c'est-à-dire rendre la création d'applications accessibles à des millions de personnes sans formation technique. Jusqu'ici, développer une application robotique nécessitait de maîtriser des SDK propriétaires, la gestion du firmware et des abstractions matérielles complexes. En éliminant cette barrière, la plateforme permet à des non-ingénieurs de livrer des logiciels robotiques fonctionnels en moins d'une heure. Le PDG Clément Delangue voit également dans ce store un terrain d'expérimentation pour les créateurs de modèles d'IA, qui pourront tester les capacités physiques de leurs nouvelles architectures directement sur un robot réel. La difficulté historique de la robotique tient au manque de données d'entraînement spécifiques : là où les grands modèles de langage ont pu s'appuyer sur des centaines de milliards de lignes de code généraliste via GitHub, les dépôts robotiques restent marginaux, avec seulement 17 000 repositories publics recensés. Hugging Face contourne ce problème en proposant une couche d'abstraction agnostique, compatible avec GPT-5.5, Claude Opus 4.6, Gemini Live, OpenAI Realtime et plusieurs autres modèles. Cette ouverture multiple crée un écosystème qui ne dépend d'aucun acteur unique. La prochaine étape sera probablement l'introduction d'options de monétisation pour les développeurs d'applications, absentes au lancement. Si la dynamique se confirme, Hugging Face pourrait transformer le Reachy Mini en plateforme de référence pour la robotique grand public, à l'heure où Boston Dynamics, Figure et d'autres misent sur des machines bien plus coûteuses et fermées.

UEHugging Face est fondée par des Français et Pollen Robotics (fabricant du Reachy Mini) est une startup française de Bordeaux, ce lancement positionne l'écosystème français en tête de la robotique grand public open source mondiale.

💬 300 dollars, 200 apps communautaires, un agent qui génère le code depuis une phrase, bon, sur le papier c'est exactement ce qu'il fallait pour que la robotique grand public décolle enfin. La comparaison avec l'App Store d'Apple est surjouée, mais les briques techniques sont là cette fois, et Pollen Robotics de Bordeaux dans la boucle c'est un beau signal pour l'écosystème français. Reste à voir si les usages dépassent le gadget de bureau dans six mois.

HumanoïdesOpinion
1 source
1X lance la production de ses humanoïdes NEO dans son usine californienne
41Robotics Business Review 

1X lance la production de ses humanoïdes NEO dans son usine californienne

1X Technologies AS a lancé cette semaine la production en série de son robot humanoïde NEO dans une nouvelle usine de 5 388 m² (58 000 pieds carrés) à Hayward, en Californie. Conçu pour évoluer dans des espaces domestiques à un niveau sonore inférieur à celui d'un réfrigérateur moderne, NEO est animé par le processeur NVIDIA Jetson Thor via une architecture baptisée NEO Cortex. La chaîne de production s'articule autour de plusieurs zones spécialisées : enroulement automatisé de bobines de cuivre pour les moteurs personnalisés, assemblage des actionneurs à tendons et des membres amortis par une structure en treillis 3D, et un laboratoire de fiabilité chargé de faire passer chaque composant sous plus de 20 millions de cycles de contrainte avant expédition. Les robots sont livrés en combinaison en nylon lavable en machine, disponible en trois coloris. Les premières unités NEO sont déjà déployées sur le plancher de l'usine elle-même, assurant la logistique interne et la gestion des pièces, tout en collectant des données réelles pour affiner les modèles d'inférence embarqués. Les livraisons grand public sont annoncées pour 2026, après que le quota de production de la première année a été vendu en cinq jours lors du lancement commercial d'octobre 2025. Ce démarrage de production constitue un signal concret dans un secteur encore dominé par les démonstrations contrôlées : 1X passe du prototype au flux industriel, avec une intégration verticale complète gérée par un système propriétaire baptisé "factory OS". Cette approche, fabrication des moteurs, assemblage mécanique et tests de fiabilité sous un même toit, tranche avec le modèle standard qui sous-traite les composants à des fournisseurs internationaux. Pour les décideurs B2B et les intégrateurs, l'enjeu n'est pas seulement technique : c'est la démonstration qu'un acteur non-asiatique peut atteindre un volume de production crédible sur un humanoïde à vocation résidentielle. Le partenariat avec NVIDIA, via la plateforme Isaac pour l'entraînement en simulation et Jetson Thor pour l'inférence embarquée, suggère une architecture sim-to-real dont la robustesse sera éprouvée par les données terrain collectées par les unités en service interne. 1X Technologies, fondée par Bernt Børnich et dont le siège est à Palo Alto, a levé des fonds significatifs ces dernières années avec un positionnement orienté vers le marché résidentiel, là où la plupart des concurrents ciblent l'industrie lourde. Face à Figure AI et son robot 02 déployé chez BMW, à Tesla Optimus Gen 3 encore en phase de test interne, et à Boston Dynamics qui consolide son Atlas sur des applications industrielles, 1X occupe une niche distincte : l'assistance à domicile. L'usine de Hayward sert pour l'instant principalement aux programmes de R&D et de test en conditions réelles, et les chiffres de production effective restent non communiqués. La prochaine étape sera de valider si le comportement en environnement domestique non contrôlé tient les promesses affichées lors des démonstrations en laboratoire.

UE1X Technologies AS est une entreprise norvégienne (EEE) qui entre en production série avec NEO, confirmant qu'un acteur de l'écosystème européen peut atteindre un volume industriel crédible face aux concurrents américains et asiatiques dans la course aux humanoïdes résidentiels.

HumanoïdesOpinion
1 source
Atlas de Boston Dynamics épate avec un appui tendu renversé parfait
42Interesting Engineering 

Atlas de Boston Dynamics épate avec un appui tendu renversé parfait

Boston Dynamics a publié de nouvelles séquences de test montrant son robot humanoïde Atlas enchaîner une série de figures acrobatiques avancées : passage d'une posture debout vers un équilibre sur une jambe, descente des mains au sol, puis montée en poirier complet avec rotation des jambes à 180 degrés grâce à des épaules à mobilité étendue, maintien en L-sit pendant plusieurs secondes, et retour fluide en position verticale. Ces capacités reposent sur un système de contrôle corps entier entraîné par apprentissage par renforcement en simulation, conçu pour un transfert dit "zero-shot" : les politiques apprises en simulation sont déployées directement sur le matériel sans recalibration spécifique à la tâche. La version de production de l'Atlas dispose de 56 degrés de liberté et d'un préhenseur à quatre doigts avec retour haptique. Hyundai Motor Group, maison-mère de Boston Dynamics, a confirmé un déploiement sur le site Hyundai Motor Group Metaplant America d'ici 2028, d'abord pour le séquençage de pièces, puis pour l'assemblage complet de composants à l'horizon 2030. Ce que ces démonstrations valident avant tout, c'est la robustesse du sim-to-real sur des comportements hautement dynamiques : le fait qu'une politique unique gouverne à la fois la locomotion, la manipulation et la récupération après instabilité contredit les architectures traditionnelles en pipeline séparé. Pour les intégrateurs industriels et les décideurs B2B, le signal important n'est pas le poirier en lui-même, mais ce qu'il teste : la capacité du stack logiciel à gérer des forces de contact imprévisibles, des transitions posturales rapides et des corrections de couple articulaire en temps réel. C'est exactement ce que requièrent les environnements d'assemblage contraints, où un robot doit adapter sa posture à des espaces réduits et manipuler des pièces à géométrie variable. Cela dit, la prudence s'impose : les vidéos publiées sont sélectionnées et ne renseignent pas sur les taux d'échec, le temps de cycle moyen, ni les conditions environnementales réelles. Boston Dynamics développe Atlas depuis plus d'une décennie, le robot ayant progressivement évolué d'une plateforme hydraulique à un système entièrement électrique présenté en 2024. Cette phase de validation acrobatique, menée en collaboration avec le Robotics & AI Institute, s'inscrit dans la transition explicite de la recherche vers la production industrielle. Sur le marché humanoïde, l'entreprise se positionne face à Figure (Figure 03), Tesla (Optimus Gen 3), Physical Intelligence (pi0), et NVIDIA/GR00T N2 comme backbone de contrôle, ainsi que 1X, Agility Robotics ou Apptronik pour les applications logistiques. L'ancrage dans l'écosystème Hyundai lui confère un débouché industriel direct que peu de concurrents peuvent revendiquer aujourd'hui. Les prochaines étapes annoncées pointent vers des pilotes terrain chez Hyundai en 2026-2027 avant le déploiement confirmé à grande échelle en 2028.

HumanoïdesOpinion
1 source
Le robot humanoïde Agibot A2 partage le tapis rouge du Met Gala avec des célébrités
43Interesting Engineering 

Le robot humanoïde Agibot A2 partage le tapis rouge du Met Gala avec des célébrités

Le 5 mai 2026, la société chinoise AGIBOT a déployé son robot humanoïde pleine taille A2 devant The Mark Hotel à New York, en marge de l'avant-soirée du Met Gala, en partenariat avec le designer Alexander Wang. L'opération marque la première présence d'un robot humanoïde à cet événement. Sur place, l'A2 a posé face aux photographes, ajusté sa posture sur demande, porté des objets et servi des boissons à des invités. Le robot a connu un accroc mineur en restant brièvement bloqué dans un ascenseur, nécessitant l'intervention du personnel, avant de reprendre ses activités. Aucune spécification technique précise (nombre de degrés de liberté, charge utile, vitesse de cycle) n'a été communiquée à cette occasion, ce qui place cet événement davantage du côté de la démonstration marketing que du déploiement opérationnel documenté. L'intérêt industriel de la séquence tient moins à la prouesse technique qu'au contexte d'exécution : naviguer dans un environnement non structuré, dense en personnes, en lumières variables et en imprévus, reste l'un des défis centraux de la robotique humanoïde. Le fait que l'A2 ait maintenu une interaction cohérente avec le public pendant plusieurs heures - même dans un cadre scénarisé - suggère des avancées réelles dans la perception et la planification de mouvement en milieu ouvert. Cela dit, les vidéos diffusées sur les réseaux sociaux montrent des scènes sélectionnées : l'accroc à l'ascenseur a été filmé et largement partagé, rappelant que la fiabilité en autonomie complète reste à démontrer dans des conditions non contrôlées. Pour les décideurs B2B et les intégrateurs, cet événement confirme surtout qu'AGIBOT vise un positionnement grand public et culturel, en complément de ses ambitions industrielles. AGIBOT, fondée en 2023 à Shanghai, fait partie d'une vague de startups chinoises de robotique humanoïde qui ont levé des centaines de millions de dollars ces deux dernières années, aux côtés d'Unitree, Leju Robotics et Fourier Intelligence. À l'international, ses concurrents directs incluent Figure AI (A2 annoncé en 2025, déployé chez BMW), Physical Intelligence (modèle Pi-0), Agility Robotics (Digit, déployé chez Amazon) et Boston Dynamics (Atlas électrique). La collaboration avec Alexander Wang et le choix du Met Gala s'inscrivent dans une stratégie de visibilité mondiale qui rappelle l'approche de Tesla avec Optimus : associer le robot à des événements culturels pour normaliser sa présence avant le déploiement à grande échelle. AGIBOT n'a pas annoncé de pilotes industriels spécifiques ni de timeline commerciale à l'issue de cet événement.

Chine/AsieOpinion
1 source
Vidéo : le robot Atlas bouge déjà mieux que certains gymnastes
44Le Big Data 

Vidéo : le robot Atlas bouge déjà mieux que certains gymnastes

Boston Dynamics a publié le 5 mai 2026 une courte vidéo montrant son robot humanoïde Atlas réaliser un appui tendu renversé suivi d'un L-sit maintenu plusieurs secondes, avant de se relever sans assistance. Cette nouvelle génération d'Atlas affiche des caractéristiques techniques imposantes : 1,88 mètre de hauteur (6,2 pieds), 90 kilogrammes, 56 degrés de liberté articulaire, des rotations à 360° sur les articulations clés, une protection IP67 contre la poussière et l'eau, et une plage de fonctionnement de -20° à +40°C. Ce n'est plus un prototype de laboratoire : il s'agit d'une version conçue pour une industrialisation future, avec seulement deux types d'actionneurs distincts dans l'ensemble du corps. Le L-sit est une figure de gymnastique artistique qui exige une force abdominale extrême, un équilibre millimétré et une coordination quasi parfaite, déjà difficile pour un humain entraîné, quasi insoluble pour une machine de 90 kilos jusqu'à récemment. Ce que Boston Dynamics démontre ici, c'est la maturité de son pipeline d'apprentissage par renforcement : Atlas s'entraîne en simulation virtuelle sur des milliers d'essais, affine ses stratégies de mouvement, puis transfère ces réflexes acquis vers le robot physique. Le résultat visible est frappant, les gestes ne ressemblent plus à des séquences programmées point par point, mais à un équilibre instinctif, comme si la machine anticipait ses propres pertes de stabilité avant qu'elles ne surviennent. C'est un saut qualitatif majeur : la fluidité du mouvement est désormais comparable à celle d'un gymnaste humain de niveau intermédiaire. Derrière la démonstration spectaculaire, les enjeux sont industriels et stratégiques. Le travail sur la locomotion généraliste est piloté par le RAI Institute, dirigé par Marc Raibert, fondateur historique de Boston Dynamics, avec l'objectif de créer un système de contrôle unifié capable de gérer aussi bien la marche quotidienne que les figures acrobatiques. Hyundai, propriétaire de Boston Dynamics depuis 2021, prévoit de déployer Atlas dans sa gigantesque usine de Géorgie dès 2028, et vise à terme une production de 30 000 unités humanoïdes par an. Atlas n'est cependant pas seul sur ce marché : Figure, Agility Robotics, Tesla avec Optimus, et plusieurs startups chinoises se disputent les mêmes contrats industriels. Boston Dynamics possède probablement l'humanoïde techniquement le plus avancé, mais la transition d'une vidéo virale à une ligne de production fiable, rentable et à grande échelle reste le vrai défi, et c'est là que la compétition se jouera dans les deux prochaines années.

HumanoïdesOpinion
1 source
Les robots humanoïdes vont-ils (vraiment) prendre votre travail ? Notre rédacteur en chef répond sur France 24
45Le Big Data 

Les robots humanoïdes vont-ils (vraiment) prendre votre travail ? Notre rédacteur en chef répond sur France 24

Le rédacteur en chef de LeBigData.fr était l'invité d'Ali Laïdi dans l'émission "Aux avant-postes" sur France 24 pour évoquer l'essor des robots humanoïdes et leurs effets sur le marché du travail. Alors que les débats publics restent concentrés sur les IA génératives comme ChatGPT, une autre transformation s'accélère discrètement dans les laboratoires de la Silicon Valley et de Chine : des robots comme Optimus de Tesla, Atlas de Boston Dynamics, ou encore les modèles de Figure et Unitree ne sont plus de simples démonstrations technologiques. Ils sont désormais en phase de déploiement industriel réel, dans des usines et des entrepôts, avec une capacité croissante à manipuler des objets, porter des charges lourdes et s'adapter à des environnements non structurés. Le point de bascule mis en avant lors de cette intervention n'est pas technologique mais économique : le coût d'exploitation d'un robot humanoïde pourrait descendre à environ 1 dollar de l'heure d'ici quelques années. À ce niveau de prix, aucun marché du travail humain, même dans les économies à bas salaires, ne peut soutenir la comparaison. Les secteurs de la logistique, de la manutention et de la production industrielle seraient les premiers touchés, avant que l'automatisation physique ne s'étende progressivement aux environnements de bureau. Pour les entreprises, le calcul deviendra rapidement incontournable ; pour les travailleurs de ces filières, la transition risque d'être brutale et rapide. La question centrale que soulève cette mutation dépasse largement le cadre technologique : si le travail physique humain devient facultatif dans des pans entiers de l'économie, comment les États financeront-ils leurs systèmes de protection sociale, historiquement adossés aux cotisations salariales ? Comment redéfinir la valeur et la place de l'individu dans une économie massivement automatisée ? Ces enjeux, encore largement absents des agendas politiques, s'inscrivent dans un calendrier serré : les cinq prochaines années seront décisives selon l'intervenant, qui a approfondi ces questions dans un essai récemment publié, "Robots humanoïdes : vont-ils prendre votre travail ? Ce qui vous attend vraiment d'ici 2030". Pendant que les gouvernements débattent de la régulation des algorithmes, les déploiements physiques, eux, avancent à un rythme que peu d'acteurs institutionnels semblent encore mesurer.

UELa question du financement des systèmes de protection sociale français et européens, historiquement adossés aux cotisations salariales, est directement posée par la perspective d'une automatisation physique massive d'ici 2030.

HumanoïdesOpinion
1 source
Les robots chinois s'imposent dans la vie réelle, du nettoyage à la régulation du trafic
46SCMP Tech 

Les robots chinois s'imposent dans la vie réelle, du nettoyage à la régulation du trafic

En Chine, les robots humanoïdes et de service quittent les laboratoires pour s'intégrer dans des environnements opérationnels réels, un virage visible depuis le début de 2025. En mars, une offre de nettoyage a été lancée sur 58.com, plateforme chinoise d'annonces équivalente à LeBonCoin, associant un robot à un technicien humain pour des interventions à domicile. Au-delà du ménage, des robots sont désormais déployés pour réguler la circulation routière et intervenir dans des ateliers industriels à risque, là où l'exposition humaine est problématique, soudure, manipulation de produits chimiques, environnements haute température. Ce glissement du POC vers le déploiement opérationnel est structurellement significatif pour le secteur. Il signale que l'écart "demo-to-reality" commence à se résorber dans des cas d'usage à périmètre contrôlé : tâches répétitives, environnements semi-structurés, supervision humaine maintenue. Pour les intégrateurs B2B, cela ouvre une fenêtre concrète sur des ROI calculables, à condition que les cycles de maintenance et les taux d'erreur en conditions réelles soient publiés, ce que les annonces chinoises ne détaillent pas encore systématiquement. La Chine a inscrit la robotique incarnée comme priorité nationale dans son plan industriel 2025, avec des financements étatiques directs vers des acteurs comme Unitree, UBTECH et Fourier Intelligence. Face à Figure AI (Figure 02), Boston Dynamics (Atlas) et Tesla (Optimus Gen 2) côté américain, Pékin mise sur le déploiement massif et rapide plutôt que sur la performance en vitrine. Les prochaines étapes probables : extension des services 58.com à d'autres villes, et multiplication des pilotes industriels dans la logistique et la maintenance lourde.

UELa montée en puissance du déploiement opérationnel des robots chinois (Unitree, UBTECH, Fourier) accentue la pression concurrentielle indirecte sur les fabricants et intégrateurs européens, sans impact direct immédiat sur la France ou l'UE.

Chine/AsieOpinion
1 source
ABB Robotics lance OmniVance, une cellule autonome de finition de surface
47Robotics Business Review 

ABB Robotics lance OmniVance, une cellule autonome de finition de surface

ABB Robotics a lancé fin avril 2026 l'OmniVance Collaborative Surface Finishing Cell, sa première cellule entièrement automatisée dédiée au ponçage et au polissage industriel. La solution, développée par le groupe suisse basé à Zurich, repose sur le cobot GoFa d'ABB et se présente comme une offre clé en main, livrée avec tous les composants de sécurité nécessaires, certifiée CE, et opérationnelle sans ingénierie supplémentaire. L'interface de programmation, disponible sur tablette, intègre des fonctions d'enregistrement de trajectoires 3D par guidage manuel (lead-through), de création de chemins 2D prédéfinis, et d'édition intuitive via des blocs Wizard Easy Programming. ABB affirme que ces outils permettent de réduire le temps de programmation jusqu'à 90%, une estimation à prendre avec précaution faute de contexte méthodologique précis. La cellule intègre également une préparation à l'extraction de poussières pour maintenir la qualité de finition et la santé des opérateurs. L'enjeu adressé est réel : le finissage de surface reste l'une des étapes les plus difficiles à automatiser à grande échelle, exposant les opérateurs à des contraintes physiques importantes et à des environnements poussiéreux. Deloitte et le Manufacturing Institute estiment que 1,9 million de postes dans la fabrication américaine seront non pourvus d'ici 2033, un signal fort de la pénurie structurelle de main-d'oeuvre qualifiée. En ciblant les PME sans expertise robotique interne, ABB tente de combler un angle mort du marché : les solutions sur mesure sont trop complexes et coûteuses pour ces acteurs, tandis que les kits d'entrée de gamme manquent de capacité et d'évolutivité. La proposition plug-and-play, sans programmation personnalisée requise, abaisse concrètement le seuil d'adoption. La réduction des TMS (troubles musculo-squelettiques) et la libération des opérateurs vers des tâches à plus forte valeur ajoutée constituent des arguments B2B solides face aux acheteurs industriels. ABB figure parmi les quatre grands fabricants mondiaux de robots industriels, aux côtés de KUKA, Fanuc et Yaskawa. Sa division robotique emploie environ 7 000 personnes, avec un siège américain et une usine à Auburn Hills, dans le Michigan. En octobre 2025, ABB Group a annoncé la cession de cette division à SoftBank Group pour 5,3 milliards de dollars, une transaction qui repositionne ABB Robotics dans un écosystème orienté IA et humanoides, porté par SoftBank via ses participations dans Boston Dynamics et d'autres acteurs. Parallèlement, ABB a lancé en avril 2026 la gamme PoWa, six cobots à limitation de force et de puissance couvrant des charges utiles de 7 à 30 kg et atteignant jusqu'à 5,8 m/s, renforçant son portefeuille collaboratif avant la finalisation probable du rachat. L'OmniVance s'inscrit dans cette dynamique de montée en gamme applicative avant la transition de propriété.

UEEn tant qu'entreprise suisse certifiant CE l'OmniVance, ABB cible directement les PME industrielles européennes sans expertise robotique interne, abaissant concrètement le seuil d'adoption de l'automatisation du finissage de surface sur le marché européen.

FR/EU ecosystemeOpinion
1 source
La première usine intégrée de robots humanoïdes aux États-Unis vise 100 000 NEO d'ici 2027
48Interesting Engineering 

La première usine intégrée de robots humanoïdes aux États-Unis vise 100 000 NEO d'ici 2027

1X, entreprise de robotique dont le siège est à Hayward en Californie, a lancé la production en série de son robot humanoïde NEO dans une usine de 5 400 m² ouverte dans la même ville. La structure emploie actuellement plus de 200 personnes et affiche une capacité de production de 10 000 unités par an, avec l'ambition de dépasser 100 000 robots annuels d'ici 2027. Conçu pour un usage résidentiel (assistance à la mobilité, tâches ménagères légères, interaction quotidienne), le NEO sera proposé à 20 000 dollars à l'achat ou 499 dollars par mois en abonnement. Les premières livraisons aux clients sont prévues pour 2026, via un programme d'accès anticipé. Selon l'entreprise, la totalité de la première année de production, soit plus de 10 000 unités, aurait été réservée en cinq jours lors de l'ouverture des commandes en octobre dernier, un chiffre non corroboré par une source tierce. La démarche de 1X se distingue par une intégration verticale quasi complète : moteurs, batteries, capteurs, structures mécaniques et systèmes de transmission sont conçus et fabriqués en interne, y compris des lignes automatisées de bobinage de cuivre pour les actionneurs. Cette stratégie vise à réduire la dépendance aux fournisseurs externes, accélérer les cycles d'itération matérielle et améliorer la fiabilité, un enjeu critique pour des robots destinés à évoluer dans des environnements domestiques imprévisibles. Chaque NEO embarque la plateforme de calcul NVIDIA Jetson Thor, qui assure l'inférence IA en temps réel à bord (perception, raisonnement, navigation) sans dépendre de l'infrastructure cloud, réduisant ainsi la latence opérationnelle. L'entraînement des comportements passe par les outils de simulation NVIDIA Isaac, permettant un apprentissage par renforcement à grande échelle avant tout déploiement physique, une approche sim-to-real dont la robustesse dans des foyers réels reste à valider. 1X Technologies, anciennement connue sous le nom de Halodi Robotics et d'origine norvégienne, s'est implantée aux États-Unis pour accélérer sa commercialisation. Elle se positionne sur un segment très disputé : Boston Dynamics (Atlas électrique), Figure AI (Figure 03, en partenariat avec BMW), Apptronik (Apollo), Agility Robotics (Digit, déployé chez Amazon) et Tesla (Optimus) se disputent tous une place dans les environnements logistiques et résidentiels. La particularité de 1X est de cibler explicitement le marché grand public plutôt que l'industrie lourde, un positionnement plus risqué à court terme mais potentiellement adressable à bien plus grand volume. Les prochaines étapes déclarées incluent la montée en cadence de l'usine de Hayward, le début des livraisons clients en 2026 et la validation des comportements IA dans des foyers réels, étape déterminante pour savoir si l'humanoïde domestique peut tenir ses promesses face à la complexité du quotidien.

UE1X est issue de Halodi Robotics (Norvège), ce qui confère à son montée en puissance industrielle aux États-Unis une pression concurrentielle indirecte sur les acteurs européens de l'humanoïde ; aucun déploiement ni partenariat EU annoncé à ce stade.

HumanoïdesActu
1 source
Figure affirme produire un robot humanoïde par heure, soit une multiplication par 24 en quatre mois
49Interesting Engineering 

Figure affirme produire un robot humanoïde par heure, soit une multiplication par 24 en quatre mois

Figure, la startup californienne spécialisée en robotique humanoïde, a annoncé avoir atteint un rythme de production d'un robot Figure 03 par heure dans son usine BotQ, située en Californie. Ce chiffre représente une multiplication par 24 du cadence de fabrication en moins de quatre mois, partant d'un robot par jour début 2026. Plus de 350 unités ont été livrées à ce jour, plus de 500 batteries expédiées, et plus de 9 000 actionneurs produits. La ligne de fabrication s'appuie sur un logiciel propriétaire déployé sur plus de 150 postes de travail en réseau, avec plus de 50 points d'inspection intermédiaires. Le taux de réussite en fin de ligne (first-pass yield) dépasse 80 %, et le rendement de production des batteries atteint 99,3 %. Chaque unité subit plus de 80 tests fonctionnels incluant des exercices de stress mécanique (squats, jogging) avant expédition. L'objectif affiché reste de 12 000 robots par an à pleine capacité. Ce passage du stade prototype à la production industrielle est significatif dans la course aux humanoïdes, où la majorité des acteurs restent encore dans des phases de démonstrateur ou de déploiement pilote très limité. Un taux de rendement end-of-line supérieur à 80 % sur un produit mécatronique aussi complexe est un indicateur industriel crédible, bien que Figure ne précise pas la définition exacte de ce seuil ni les conditions de test. En parallèle, Figure a publié une mise à jour majeure de son modèle d'IA Helix, baptisée System 0 (S0). L'ancienne version reposait uniquement sur la proprioception (états articulaires, posture). S0 intègre désormais des caméras stéréo embarquées qui génèrent une représentation 3D de l'environnement, permettant au robot de naviguer des escaliers et des terrains variés avec une stabilité décrite comme comparable à celle d'un humain. Le système est entraîné par renforcement en simulation sur des terrains aléatoires, et les comportements appris se transfèrent directement au monde réel sans recalibration, ce qui constitue une avancée notable sur le classique problème du sim-to-real gap. Figure a été fondée en 2022 par Brett Adcock et a levé plus de 675 millions de dollars, dont une ronde notable en 2024 avec des participations de Microsoft, Nvidia, OpenAI et Samsung. Le Figure 03 est la troisième génération de son robot humanoïde, succédant au Figure 01 et 02. Dans un secteur extrêmement concurrentiel, Figure se positionne face à Tesla (Optimus Gen 2), Boston Dynamics (Atlas électrique), Agility Robotics (Digit, déployé chez Amazon), Physical Intelligence (Pi-0) et Unitree. La montée en volume de BotQ est aussi une course aux données : plus de robots déployés signifie davantage de données réelles pour entraîner Helix. Figure indique viser des déploiements dans les secteurs de la recherche, du commercial et de l'usage domestique, sans préciser de calendrier client ni de prix public pour le Figure 03.

HumanoïdesActu
1 source
ATLAS : un outil d'annotation pour la segmentation d'actions robotiques à long horizon
50arXiv cs.RO 

ATLAS : un outil d'annotation pour la segmentation d'actions robotiques à long horizon

Des chercheurs ont publié le 30 avril 2026 sur arXiv (référence 2604.26637) ATLAS, un outil d'annotation dédié à la segmentation d'actions robotiques sur des horizons temporels longs. L'outil propose une visualisation synchronisée de données multimodales : flux vidéo multi-vues et signaux proprioceptifs comme l'état de la pince ou les capteurs force/couple. ATLAS prend en charge nativement les formats les plus répandus dans la communauté robotique, à savoir les ROS bags et le format RLDS (Reinforcement Learning Dataset), avec un support direct pour des jeux de données spécifiques tels que REASSEMBLE. Son interface centrée sur le clavier vise à réduire la charge cognitive de l'annotateur. Sur une tâche d'assemblage riche en contacts, ATLAS réduit le temps moyen d'annotation par action d'au moins 6 % par rapport à ELAN, améliore l'alignement temporel avec les annotations expertes de plus de 2,8 %, et divise par cinq l'erreur aux frontières d'actions par rapport aux outils purement visuels. Ce résultat pointe vers un goulot d'étranglement souvent sous-estimé dans le développement des politiques de manipulation : la qualité des annotations temporelles conditionne directement la performance des modèles d'imitation et de segmentation d'actions. Les approches VLA (Vision-Language-Action) et les méthodes de policy learning par démonstration nécessitent des frontières d'actions précises pour généraliser correctement. L'absence de synchronisation entre vidéo et signaux robot dans les outils existants introduit des biais systématiques dans les datasets, qui se répercutent ensuite sur le sim-to-real gap. ATLAS adresse ce problème structurel pour les équipes qui construisent des pipelines de données à grande échelle. ELAN, l'outil de référence historique pour l'annotation multimodale issu de la linguistique computationnelle, était jusqu'ici la solution la plus utilisée dans les labos robotique faute d'alternative spécialisée. ATLAS se positionne explicitement comme son successeur pour les usages robotiques, avec une couche d'abstraction modulaire qui facilite l'intégration de nouveaux formats. Le format RLDS, popularisé notamment par les travaux de Google DeepMind sur RT-2 et Open X-Embodiment, est devenu un standard de facto pour les datasets de manipulation à large échelle, rendant la compatibilité native d'ATLAS particulièrement pertinente. Aucun déploiement industriel ni partenariat commercial n'est mentionné à ce stade : il s'agit d'un outil de recherche open source, dont la prochaine étape naturelle serait une adoption par les équipes construisant des benchmarks de manipulation standardisés.

RecherchePaper
1 source