Aller au contenu principal

Dossier Boston Dynamics — page 4

221 articles · page 4 sur 5

Boston Dynamics, pionnier de la locomotion : Atlas électrique, Spot patrouille industrielle et inspection, partenariats Hyundai et Toyota Research Institute.

Video Friday : l'IA confère aux mains robotiques une dextérité humaine
151IEEE Spectrum Robotics IA physiqueActu

Video Friday : l'IA confère aux mains robotiques une dextérité humaine

Cette semaine dans la sphère robotique, l'annonce la plus médiatisée émane de Genesis AI, qui présente GENE-26.5, décrit par la société comme "le premier cerveau IA à conférer aux robots des capacités de manipulation physique au niveau humain." Les démonstrations vidéo montrent un système cuisant un repas complet, cassant un oeuf d'une seule main, conduisant des expériences de laboratoire, réalisant du câblage de harnais électrique et jouant du piano. Aucun détail technique sur le matériel robotique utilisé, les taux de succès, ou les conditions d'environnement contrôlées n'est communiqué, ce qui invite à la prudence avant de valider ces affirmations. En parallèle, le Robotics and AI Institute publie une démonstration du quadrupède Spot de Boston Dynamics piloté par un réseau de neurones entraîné par apprentissage par renforcement combiné à une distillation multi-expert: le robot s'accroupit, saute, escalade des caisses et franchit des vides. Du côté de la NASA, les ingénieurs du Jet Propulsion Laboratory ont passé la barrière du son avec des pales de rotor de prochaine génération pour hélicoptère martien, atteignant Mach 1 dans une chambre simulant l'atmosphère de Mars, dont la densité représente environ 1 % de celle de la Terre. Jim Fan, qui dirige le groupe de recherche en autonomie incarnée chez Nvidia, affirme pour sa part que la robotique entre dans sa "phase finale" et que le plan de jeu est déjà écrit. Les affirmations de Genesis AI sur la manipulation humanoïde méritent d'être contextualisées: le secteur est parsemé d'annonces de "dextérité humaine" qui peinent à se vérifier hors conditions contrôlées. L'absence de métriques objectives, taux de succès, nombre de tentatives, variété des objets manipulés, est un signal d'alerte classique dans les communications de ce type, et le demo-to-reality gap reste la question centrale pour tout décideur B2B qui évalue ces systèmes. La prouesse NASA sur les rotors martiens est, en revanche, une avancée mesurable: franchir Mach 1 dans une atmosphère aussi ténue implique des vitesses de rotation extrêmes et des matériaux composites capables de résister à des charges aérodynamiques inédites, ouvrant la voie à des hélicoptères plus capables pour de futures missions. Quant à Atlas, le discours officiel de Boston Dynamics sur l'équilibre entre objectifs commerciaux et recherche fondamentale traduit la pression croissante que subissent les constructeurs de plateformes humanoïdes pour démontrer une rentabilité tangible après des années d'investissement massif. Genesis AI est peu connue du grand public; sa mise en avant via TechCrunch suggère une stratégie de visibilité plutôt qu'un lancement produit au sens strict. Dans l'écosystème concurrent, Physical Intelligence avec Pi-0, Figure Robotics avec le Figure 03, Agility Robotics et 1X mènent des efforts comparables sur la manipulation généraliste, tandis que Nvidia prépare le terrain pour GR00T N2 et les prochains modèles de foundation pour corps physiques. Le thème de l'Open Duck Mini, version open-source des droids BDX de Disney publiée par la communauté, rappelle que l'innovation en robotique ne se limite pas aux acteurs industriels. La communauté se retrouvera à ICRA 2026 du 1er au 5 juin à Vienne, puis à RSS 2026 du 13 au 17 juillet à Sydney, deux rendez-vous où ces avancées seront soumises à une évaluation scientifique rigoureuse, loin des vidéos de démonstration soigneusement sélectionnées.

1 source
Unitree Robotics fait son entrée en Corée du Sud avec une cérémonie d'ordination au plus grand temple bouddhiste de Séoul
152Pandaily 

Unitree Robotics fait son entrée en Corée du Sud avec une cérémonie d'ordination au plus grand temple bouddhiste de Séoul

Le G1 d'Unitree Robotics, humanoïde de 130 cm développé par le fabricant chinois Unitree Technology, a participé à une cérémonie d'ordination bouddhiste au temple Cheonggye, dans le centre de Séoul, quelques jours avant les festivités de la naissance de Bouddha. Organisée par l'ordre Jogye, la plus grande confrérie bouddhiste de Corée du Sud, la cérémonie a conféré au robot le nom dharma "Gabi" (가비). Vêtu de robes monastiques gris-brunes, tête lissée en référence au crâne rasé, Gabi a suivi le protocole intégral réservé aux croyants : prosternations, mains jointes, défilé autour de la pagode aux côtés des moines, réception d'un chapelet de 108 perles. Interrogé par le moine officiant sur sa volonté de prendre refuge dans le bouddhisme, le robot a répondu vocalement : "Oui, je voue de prendre refuge." La brûlure symbolique des bras près d'un bâton d'encens, étape traditionnelle du rituel, a été remplacée par l'apposition d'un autocollant. Cet événement dépasse l'anecdote culturelle : il constitue une opération de validation internationale soigneusement orchestrée par Unitree, à un moment où la commercialisation des humanoïdes chinois s'accélère tandis que les restrictions d'accès au marché américain se durcissent. Pour les décideurs industriels, l'intérêt est moins théologique que technique : Unitree démontre que son G1 peut exécuter des séquences de mouvements coordonnés (marche, inclinaison, gestuelle précise) dans un environnement public non contrôlé, devant une audience particulièrement sensible à l'exactitude rituelle. La valeur probatoire reste limitée faute de métriques publiées, mais la démonstration d'acceptabilité sociale sur un marché coréen stratégique est, au minimum, réussie sur le plan médiatique. Unitree Robotics, connu pour ses robots quadrupèdes Go1 et Go2 avant de lancer le G1 en 2024, cherche à s'imposer hors de Chine dans une course humanoïde qui s'intensifie à l'échelle mondiale. Ses concurrents directs incluent Boston Dynamics (Atlas), Figure AI (Figure 03), Tesla (Optimus Gen 3) et Agility Robotics (Digit) côté américain, ainsi que Fourier Intelligence et UBTECH côté chinois. Aucun acteur français n'est impliqué dans cet épisode, bien que Wandercraft progresse en parallèle sur le segment médical. La prochaine étape logique pour Unitree serait d'annoncer des pilotes commerciaux en Corée du Sud, marché industriel prioritaire pour les intégrateurs robotiques cherchant une alternative aux plateformes occidentales.

Chine/AsieOpinion
1 source
Podcast : Colin Angle parle de la conception de robots compagnons avec Familiar Machines et Magic
153The Robot Report 

Podcast : Colin Angle parle de la conception de robots compagnons avec Familiar Machines et Magic

Colin Angle, cofondateur et ancien PDG d'iRobot, sort de la discrétion avec une nouvelle startup baptisée Familiar Machines & Magic (FM&M). La société vient de lever le voile sur son projet : développer des robots compagnons appelés "Familiars", conçus pour entretenir des relations à long terme avec leurs utilisateurs, avec une dimension d'intelligence émotionnelle embarquée. FM&M se positionne dans le segment de la "physical AI grand public". Aux côtés d'Angle, l'équipe fondatrice comprend Ira Renfrew, directrice des ressources humaines et du produit, et le Dr Chris Jones, directeur R&D, tous deux vétérans de l'industrie avec des parcours chez iRobot, Amazon et d'autres grandes plateformes technologiques. Le reste de l'équipe cumule des expertises issues de Disney Research, du MIT, de Boston Dynamics et de l'USC. Collectivement, les fondateurs revendiquent le déploiement de plus de 50 millions de robots grand public dans le monde. La société opère depuis Boston, Los Angeles et Hong Kong. Le retour de Colin Angle dans la robotique grand public constitue un signal notable pour un secteur aujourd'hui dominé par les annonces industrielles et les humanoïdes de laboratoire. FM&M mise sur un segment encore peu commercialisé : le robot domestique à vocation relationnelle, distinct du simple assistant vocal ou du robot aspirateur. L'enjeu central est de démontrer qu'une intelligence émotionnelle peut être embarquée dans un produit physique viable sur le marché de masse, hypothèse que plusieurs tentatives précédentes (Jibo, Anki Vector, Embodied Moxie) n'ont pas réussi à valider à grande échelle. Le pedigree de l'équipe apporte une crédibilité rare dans ce segment, notamment sur les questions de navigation, de robustesse produit et de capacité manufacturière. Cela dit, FM&M n'a annoncé ni produit concret, ni prix, ni calendrier de lancement : on reste strictement au stade de la sortie de stealth, sans prototype montré publiquement. Angle a quitté iRobot début 2024 après l'échec du rachat par Amazon, bloqué par la Commission européenne en janvier 2024 pour des raisons de concurrence, ce qui avait contraint l'entreprise à licencier environ 31 % de ses effectifs et Angle à démissionner. Cette rupture a libéré l'un des profils les plus expérimentés de la robotique grand public pour fonder FM&M. Dans le paysage concurrent, les robots compagnons peinent structurellement à trouver un modèle économique pérenne : Embodied a fermé ses portes, Sony perpétue Aibo sur un segment premium très niche, et des acteurs comme 1X Technologies ou Apptronik visent prioritairement l'industrie. Aucune levée de fonds n'a été communiquée publiquement par FM&M, et la formulation retenue par la société, construire "une plateforme à long terme pour la vie artificielle", suggère un horizon commercial encore lointain.

UELe blocage par la Commission européenne du rachat d'iRobot par Amazon (janvier 2024) a indirectement libéré l'équipe fondatrice pour créer FM&M, mais la société n'a annoncé aucune présence ni activité en Europe à ce stade.

Gabi, le moine robot sud-coréen, participe à une cérémonie bouddhiste et prononce ses vœux
154Interesting Engineering 

Gabi, le moine robot sud-coréen, participe à une cérémonie bouddhiste et prononce ses vœux

Le 6 mai 2026, un robot humanoïde de 130 centimètres a participé pour la première fois en Corée du Sud à une cérémonie d'initiation bouddhiste au temple Jogyesa de Séoul, à quelques jours du festival de l'anniversaire de Bouddha. Nommé Gabi, le robot porte le nom dharma signifiant "miséricorde" en coréen, un nom choisi selon le vénérable Seong Won, responsable des affaires culturelles de l'ordre Jogye, pour "diffuser la miséricorde de Bouddha dans le monde entier". Développé par la société chinoise Unitree Robotics, Gabi était vêtu de robes bouddhistes brunes traditionnelles lors du rituel "sugye", une cérémonie formelle au cours de laquelle les participants s'engagent à se vouer à Bouddha, à ses enseignements et à la communauté monastique. Dans la cour du temple, le robot a joint ses paumes en signe de prière et s'est incliné aux côtés des moines et des nonnes. Interrogé oralement par un moine sur son engagement envers les enseignements du Bouddha, Gabi a répondu à voix haute : "Oui, je me dévouerai." Un chapelet de 108 perles lui a été passé au cou, tandis qu'un autocollant a été appliqué sur son bras en remplacement de la pratique traditionnelle "yeonbi", qui consiste à appliquer de petites brûlures d'encens sur la peau des novices. Les cinq préceptes bouddhistes ont par ailleurs été réécrits spécifiquement pour l'entité non humaine, avec une contribution d'outils d'IA dont Gemini et ChatGPT, incluant notamment des règles telles que "respecter la vie et ne pas la nuire" et "obéir aux humains sans répliquer". L'événement constitue un précédent notable dans l'intégration des robots humanoïdes à des espaces culturels et spirituels institutionnalisés. Si l'acte reste symbolique, il illustre la capacité des institutions religieuses à adapter des rituels séculaires à des entités non biologiques, ouvrant un champ d'interrogation inédit sur la définition même du participant à un rite. Contrairement aux démonstrations industrielles ou aux déploiements en entrepôts logistiques, ce cas de figure montre une adoption dans un contexte à forte charge symbolique et communautaire. La réécriture des préceptes, assistée par des LLM grand public, souligne également que ces adaptations ne relèvent pas encore d'une réflexion théologique approfondie, mais d'une expérimentation exploratoire. L'ordre Jogye, qui administre les temples bouddhistes zen coréens, a commencé à envisager l'intégration de robots au festival de la Lanterne de Lotus (Yeondeunghoe) dès l'apparition des humanoïdes commerciaux, il y a environ trois ans selon Ven. Seong Won. Trois autres robots à thématique bouddhiste, baptisés Seokja, Mohee et Nissa, doivent rejoindre Gabi lors du prochain festival, prévu le 24 mai 2026. Unitree Robotics, concepteur du châssis de Gabi, est un acteur chinois du marché des humanoïdes en forte croissance, en compétition directe avec des entreprises comme Boston Dynamics, Agility Robotics ou Figure AI sur le segment des robots bipèdes à usage polyvalent. Ce déploiement dans un contexte non industriel s'éloigne du positionnement habituel d'Unitree, orienté vers la recherche et les usages professionnels, et signale une stratégie de visibilité dans des marchés culturels émergents.

Societe/EthiqueActu
1 source
Le robot humanoïde Agibot A2 partage le tapis rouge du Met Gala avec des célébrités
155Interesting Engineering 

Le robot humanoïde Agibot A2 partage le tapis rouge du Met Gala avec des célébrités

Le 5 mai 2026, la société chinoise AGIBOT a déployé son robot humanoïde pleine taille A2 devant The Mark Hotel à New York, en marge de l'avant-soirée du Met Gala, en partenariat avec le designer Alexander Wang. L'opération marque la première présence d'un robot humanoïde à cet événement. Sur place, l'A2 a posé face aux photographes, ajusté sa posture sur demande, porté des objets et servi des boissons à des invités. Le robot a connu un accroc mineur en restant brièvement bloqué dans un ascenseur, nécessitant l'intervention du personnel, avant de reprendre ses activités. Aucune spécification technique précise (nombre de degrés de liberté, charge utile, vitesse de cycle) n'a été communiquée à cette occasion, ce qui place cet événement davantage du côté de la démonstration marketing que du déploiement opérationnel documenté. L'intérêt industriel de la séquence tient moins à la prouesse technique qu'au contexte d'exécution : naviguer dans un environnement non structuré, dense en personnes, en lumières variables et en imprévus, reste l'un des défis centraux de la robotique humanoïde. Le fait que l'A2 ait maintenu une interaction cohérente avec le public pendant plusieurs heures - même dans un cadre scénarisé - suggère des avancées réelles dans la perception et la planification de mouvement en milieu ouvert. Cela dit, les vidéos diffusées sur les réseaux sociaux montrent des scènes sélectionnées : l'accroc à l'ascenseur a été filmé et largement partagé, rappelant que la fiabilité en autonomie complète reste à démontrer dans des conditions non contrôlées. Pour les décideurs B2B et les intégrateurs, cet événement confirme surtout qu'AGIBOT vise un positionnement grand public et culturel, en complément de ses ambitions industrielles. AGIBOT, fondée en 2023 à Shanghai, fait partie d'une vague de startups chinoises de robotique humanoïde qui ont levé des centaines de millions de dollars ces deux dernières années, aux côtés d'Unitree, Leju Robotics et Fourier Intelligence. À l'international, ses concurrents directs incluent Figure AI (A2 annoncé en 2025, déployé chez BMW), Physical Intelligence (modèle Pi-0), Agility Robotics (Digit, déployé chez Amazon) et Boston Dynamics (Atlas électrique). La collaboration avec Alexander Wang et le choix du Met Gala s'inscrivent dans une stratégie de visibilité mondiale qui rappelle l'approche de Tesla avec Optimus : associer le robot à des événements culturels pour normaliser sa présence avant le déploiement à grande échelle. AGIBOT n'a pas annoncé de pilotes industriels spécifiques ni de timeline commerciale à l'issue de cet événement.

Chine/AsieOpinion
1 source
Système de téléopération à contrôle partagé par vision pour le bras robotique d'un robot quadrupède
156arXiv cs.RO 

Système de téléopération à contrôle partagé par vision pour le bras robotique d'un robot quadrupède

Des chercheurs ont publié sur arXiv (identifiant 2508.14994, troisième révision) un système de téleopération à contrôle partagé pour un robot quadrupède équipé d'un bras manipulateur, ciblant les environnements dangereux ou inaccessibles. Le principe : une caméra externe couplée à un modèle d'apprentissage automatique détecte la position du poignet de l'opérateur en temps réel, puis traduit ces mouvements en commandes directes pour le bras robotique. Un planificateur de trajectoire intégré assure la sécurité en détectant et bloquant les collisions potentielles avec les obstacles environnants, ainsi que les auto-collisions entre le bras et le châssis du robot. Le système a été validé sur un robot physique réel, pas uniquement en simulation. Il s'agit d'un preprint académique, pas d'un produit commercialisé. Ce travail adresse un verrou connu dans l'intégration industrielle des robots à pattes : les interfaces joystick ou manette exigent un niveau d'expertise élevé et génèrent une charge cognitive importante pour l'opérateur, augmentant le risque de collision dans des espaces confinés ou dynamiques. En mappant directement les gestes naturels du bras humain vers le bras du robot, l'approche réduit la barrière à l'entrée et pourrait accélérer le déploiement de plateformes comme le Boston Dynamics Spot ARM ou l'ANYmal d'ANYbotics dans des scénarios d'inspection ou de maintenance à risque. La solution revendique un faible coût d'implémentation, ne nécessitant qu'une caméra standard plutôt qu'un équipement de capture de mouvement dédié ou un retour haptique coûteux. La téleopération de robots locomoteurs reste un champ en compétition dense. Les approches concurrentes incluent la commande par réalité virtuelle (Boston Dynamics, Apptronik), les exosquelettes (Sarcos, Shadow Robot) et les interfaces à vision stéréo immersive. Du côté académique, les modèles Visual-Language-Action (VLA) comme pi-0 de Physical Intelligence ou GR00T N2 de NVIDIA visent à réduire ou éliminer la téleopération au profit de l'autonomie embarquée. Ce travail se positionne dans une niche différente : augmenter la sécurité et l'intuitivité du contrôle humain plutôt que de le remplacer. Les prochaines étapes, non détaillées dans le preprint, concerneraient typiquement des tests de robustesse en conditions dégradées (faible luminosité, poussière) et une évaluation comparative des temps de cycle opérateur face aux interfaces existantes.

RecherchePaper
1 source
Les robots humanoïdes vont-ils (vraiment) prendre votre travail ? Notre rédacteur en chef répond sur France 24
157Le Big Data 

Les robots humanoïdes vont-ils (vraiment) prendre votre travail ? Notre rédacteur en chef répond sur France 24

Le rédacteur en chef de LeBigData.fr était l'invité d'Ali Laïdi dans l'émission "Aux avant-postes" sur France 24 pour évoquer l'essor des robots humanoïdes et leurs effets sur le marché du travail. Alors que les débats publics restent concentrés sur les IA génératives comme ChatGPT, une autre transformation s'accélère discrètement dans les laboratoires de la Silicon Valley et de Chine : des robots comme Optimus de Tesla, Atlas de Boston Dynamics, ou encore les modèles de Figure et Unitree ne sont plus de simples démonstrations technologiques. Ils sont désormais en phase de déploiement industriel réel, dans des usines et des entrepôts, avec une capacité croissante à manipuler des objets, porter des charges lourdes et s'adapter à des environnements non structurés. Le point de bascule mis en avant lors de cette intervention n'est pas technologique mais économique : le coût d'exploitation d'un robot humanoïde pourrait descendre à environ 1 dollar de l'heure d'ici quelques années. À ce niveau de prix, aucun marché du travail humain, même dans les économies à bas salaires, ne peut soutenir la comparaison. Les secteurs de la logistique, de la manutention et de la production industrielle seraient les premiers touchés, avant que l'automatisation physique ne s'étende progressivement aux environnements de bureau. Pour les entreprises, le calcul deviendra rapidement incontournable ; pour les travailleurs de ces filières, la transition risque d'être brutale et rapide. La question centrale que soulève cette mutation dépasse largement le cadre technologique : si le travail physique humain devient facultatif dans des pans entiers de l'économie, comment les États financeront-ils leurs systèmes de protection sociale, historiquement adossés aux cotisations salariales ? Comment redéfinir la valeur et la place de l'individu dans une économie massivement automatisée ? Ces enjeux, encore largement absents des agendas politiques, s'inscrivent dans un calendrier serré : les cinq prochaines années seront décisives selon l'intervenant, qui a approfondi ces questions dans un essai récemment publié, "Robots humanoïdes : vont-ils prendre votre travail ? Ce qui vous attend vraiment d'ici 2030". Pendant que les gouvernements débattent de la régulation des algorithmes, les déploiements physiques, eux, avancent à un rythme que peu d'acteurs institutionnels semblent encore mesurer.

UELa question du financement des systèmes de protection sociale français et européens, historiquement adossés aux cotisations salariales, est directement posée par la perspective d'une automatisation physique massive d'ici 2030.

HumanoïdesOpinion
1 source
Améliorer la généralisabilité de l'apprentissage par renforcement en robotique via l'analyse SHAP des algorithmes et hyperparamètres
158arXiv cs.RO 

Améliorer la généralisabilité de l'apprentissage par renforcement en robotique via l'analyse SHAP des algorithmes et hyperparamètres

Une équipe de chercheurs a publié le 5 mai 2026 sur arXiv (preprint 2605.02867) un cadre explicable pour identifier quels paramètres algorithmiques d'apprentissage par renforcement (RL) pèsent le plus sur la capacité d'un modèle à généraliser d'un environnement simulé à un autre, puis à des conditions réelles. La méthode repose sur les valeurs SHAP (SHapley Additive exPlanations), un outil issu du machine learning interprétable, appliqué ici à l'évaluation systématique de combinaisons d'algorithmes RL (PPO, SAC et équivalents) et d'hyperparamètres (learning rate, discount factor, taille de batch, etc.) sur plusieurs environnements robotiques. Le papier établit une fondation théorique reliant les valeurs de Shapley à la mesure de généralisabilité, puis démontre empiriquement que certaines configurations présentent des impacts stables et prévisibles quelle que soit la tâche testée. La contribution centrale est pratique : le "generalization gap" en RL robotique, l'écart entre performance en simulation et performance réelle, constitue l'un des principaux freins au déploiement industriel. Jusqu'ici, le choix des hyperparamètres relevait en grande partie de l'expérimentation empirique coûteuse ou de règles empiriques non justifiées. En quantifiant la contribution individuelle de chaque paramètre à cet écart, les auteurs proposent un protocole de sélection guidé par SHAP qui réduit cette variance inter-environnements sans ajout de données supplémentaires. Pour un intégrateur qui doit certifier le comportement d'un bras manipulateur ou d'un robot mobile dans des conditions variables, disposer d'une hiérarchie explicite des paramètres critiques réduit significativement le temps de fine-tuning et le risque de régression lors du passage sim-to-real. Le contexte est celui d'une pression croissante sur la robustesse du RL en robotique : des laboratoires comme DeepMind, Berkeley (avec les travaux sur RLPD et Cal-QL) et des acteurs industriels comme Boston Dynamics ou Figure AI investissent massivement dans des politiques RL transférables sans retraining. L'approche SHAP s'inscrit dans un courant plus large d'XAI (explainable AI) appliqué aux politiques motrices, encore peu exploité par rapport à la vision ou au NLP. Le papier est un preprint non évalué par les pairs, sans code ni benchmark public annoncé à ce stade, ce qui limite son adoption immédiate. Les prochaines étapes naturelles seraient une validation sur hardware physique et la mise à disposition d'un outil open-source de sélection de configuration.

RecherchePaper
1 source
Planification heuristique à base de LLM pour la navigation robotique dans des environnements dynamiques, intégrant la conscience sémantique du risque
159arXiv cs.RO 

Planification heuristique à base de LLM pour la navigation robotique dans des environnements dynamiques, intégrant la conscience sémantique du risque

Des chercheurs ont publié début mai 2026, via un preprint arXiv (2605.02862), un planificateur de navigation robotique baptisé SRAH (Semantic Risk-Aware Heuristic), conçu pour intégrer des principes de raisonnement issus des grands modèles de langage (LLM) dans le cadre classique de recherche de chemin A. L'algorithme encode des fonctions de coût sémantiques qui pénalisent les zones géométriquement encombrées ou identifiées comme à risque élevé, et déclenche un replanification en boucle fermée dès qu'un obstacle dynamique est détecté. Les auteurs l'ont évalué sur 200 essais randomisés dans un environnement grille 15x15 cases, avec 20% de densité d'obstacles statiques et des obstacles dynamiques stochastiques. SRAH atteint un taux de succès de 62,0%, contre 56,5% pour BFS avec replanification (soit +9,7% d'amélioration relative) et 4,0% pour une heuristique Greedy sans replanification. Une étude d'ablation sur la densité d'obstacles confirme que le façonnage sémantique des coûts améliore la navigation sur des environnements de difficulté variable. Ce travail s'inscrit dans un courant de recherche qui cherche à exploiter la capacité des LLM à encoder du raisonnement contextuel sans les déployer en inférence temps réel, ce qui réduirait la latence et les coûts de calcul embarqués. L'idée centrale, injecter une représentation sémantique du risque dans la fonction heuristique d'A, est pertinente pour les développeurs d'AMR (robots mobiles autonomes) industriels confrontés à des environnements semi-structurés changeants. Cela dit, les résultats doivent être nuancés : un taux de succès de 62% dans une grille 15x15 reste modeste pour une tâche de navigation, et la comparaison avec un Greedy sans replanification est méthodologiquement inégale. La valeur démontrée reste celle de principe, pas de déploiement à l'échelle. La navigation en environnement dynamique est un problème central depuis les travaux fondateurs sur A (Hart, Nilsson, Raphael, 1968) et les variantes D et D*-Lite des années 1990-2000. L'émergence des LLM a relancé l'intérêt pour des heuristiques fondées sur la sémantique plutôt que sur la pure géométrie, une piste explorée par des équipes comme celles de Stanford (SayCan, 2022) ou de Google DeepMind avec RT-2. Sur le segment de la navigation mobile, des acteurs comme Boston Dynamics, MiR ou Exotec (France) intègrent déjà des couches de replanification dynamique dans leurs flottes d'AMR industriels. Ce preprint n'annonce pas de produit ni de déploiement : c'est une contribution algorithmique à valider sur des benchmarks plus réalistes (ROS 2, Gazebo, environnements 3D) avant tout transfert industriel.

UECe preprint pourrait à terme informer les développeurs d'AMR industriels européens sur les heuristiques sémantiques LLM, mais les résultats restent trop préliminaires et le benchmark trop limité (grille 15x15) pour un transfert industriel immédiat.

RecherchePaper
1 source
Anticipation-VLA : résolution de tâches incarnées à long horizon par génération de sous-objectifs
160arXiv cs.RO 

Anticipation-VLA : résolution de tâches incarnées à long horizon par génération de sous-objectifs

Une équipe de chercheurs a publié le 5 mai 2026 sur arXiv (référence 2605.01772) un modèle de contrôle robotique baptisé Anticipation-VLA, conçu pour résoudre les tâches à long horizon en robotique incarnée. Le système repose sur un composant appelé Anticipation Model, qui génère de manière adaptive et récursive des sous-objectifs intermédiaires au fil de l'exécution d'une tâche. L'architecture est hiérarchique : un Unified Multimodal Model (UMM) affiné gère la planification de haut niveau en produisant ces sous-objectifs, tandis qu'une politique VLA (Vision-Language-Action) conditionnée sur ces cibles pilote l'exécution motrice à bas niveau. Les expériences couvrent des environnements simulés et des tâches robotiques réelles. Les auteurs affirment des gains de robustesse significatifs par rapport aux approches antérieures, sans toutefois publier de métriques quantitatives précises dans l'abstract, ce qui limite la comparaison directe avec l'état de l'art. Le problème adressé est central dans la robotique d'apprentissage : les modèles VLA accumulent des erreurs sur les tâches longues, chaque décision imparfaite amplifiant les erreurs suivantes. Les approches existantes décomposent les tâches en sous-tâches de granularité fixe, ce qui les rend rigides face aux variations de complexité des états d'exécution. La contribution clé d'Anticipation-VLA est d'ajuster dynamiquement les sous-objectifs en fonction de l'évolution réelle de la situation, une avancée dans le contrôle hiérarchique adaptatif. Pour les intégrateurs et décideurs B2B, ce type de système ouvre la voie à des robots capables d'exécuter des séquences complexes en environnement industriel sans supervision constante, un verrou majeur dans le déploiement à grande échelle des bras manipulateurs. Le domaine des VLA est en pleine effervescence depuis la publication de RT-2 (Google DeepMind, 2023), puis d'OpenVLA, Pi-0 (Physical Intelligence) et GR00T N2 (NVIDIA). La recherche sur la planification hiérarchique se heurte systématiquement au "demo-reality gap" : les résultats en simulation ne se transfèrent pas toujours au monde réel. Anticipation-VLA revendique une validation sur tâches réelles, signal positif, bien que l'absence de benchmarks standardisés tels que RLBench ou LIBERO dans la publication rende difficile le positionnement précis face à la concurrence. Les prochaines étapes probables incluent des évaluations comparatives sur ces benchmarks et une extension vers des plateformes mobiles manipulatrices, segment où des acteurs comme Physical Intelligence et Boston Dynamics intensifient leurs travaux.

RechercheOpinion
1 source
Attention spatiale stéréo multi-étapes pour manipulation mobile en temps réel sous variations d'échelle et perturbations
161arXiv cs.RO 

Attention spatiale stéréo multi-étapes pour manipulation mobile en temps réel sous variations d'échelle et perturbations

Des chercheurs ont publié en mai 2026 un préprint (arXiv:2605.00471) présentant une méthode d'apprentissage prédictif profond basée sur une attention spatiale stéréo multi-étapes pour la manipulation mobile en temps réel. L'approche extrait des points d'attention spatiale pertinents à partir d'images stéréo, les intègre avec les états du robot via une architecture récurrente hiérarchique, et génère des actions en boucle fermée. Le système a été évalué sur quatre tâches de manipulation mobile en conditions réelles avec un manipulateur mobile : placement d'objets rigides, manipulation d'objets articulés, et interaction avec des objets déformables. Les expériences se sont déroulées sous positions initiales aléatoires et perturbations visuelles contrôlées. Les auteurs rapportent des taux de succès et une robustesse supérieurs aux baselines d'imitation learning et aux modèles vision-langage-action (VLA) dans des conditions de contrôle identiques. À noter : l'abstract ne fournit pas de chiffres quantitatifs précis (taux de succès, fréquence de contrôle, payload), ce qui limite l'évaluation indépendante des gains annoncés. Le problème central adressé est rarement traité explicitement dans la littérature VLA : quand un robot se déplace de manière autonome, les changements continus de point de vue caméra provoquent des variations d'échelle visuelle significatives sur les objets cibles, ce qui dégrade la génération de mouvements fondée sur la vision. Les modèles VLA actuels, entraînés sur des données à échelle fixe ou simulées, peinent à compenser ce phénomène en déploiement réel. L'architecture proposée, en combinant attention stéréo structurée et modélisation temporelle prédictive, offre une piste crédible pour combler ce fossé sim-to-real sur des plateformes mobiles, une classe de robots particulièrement exposée à ce problème par rapport aux bras fixes. Ce travail s'inscrit dans un contexte de forte compétition sur la manipulation généraliste : Boston Dynamics, Physical Intelligence avec Pi-0, NVIDIA avec GR00T N2, et Figure avec ses plateformes humanoïdes investissent massivement dans des politiques VLA robustes au monde réel. La manipulation mobile reste un défi distinct de la manipulation fixe, car elle cumule les difficultés de navigation et de préhension dans des environnements non structurés. En l'absence d'affiliation institutionnelle dans le préprint et de code ou de vidéos publiés, il est prématuré d'évaluer la reproductibilité de l'approche. Les prochaines étapes naturelles seraient une publication sur benchmark standardisé (Open-X Embodiment, LIBERO) et un test sur plateformes commerciales comme les AMR équipés de bras (MiR, Clearpath, ou des acteurs européens comme Niryo ou Wandercraft sur des variantes mobiles).

RechercheOpinion
1 source
L'IA physique est la véritable révolution de l'industrie manufacturière
162Robotics Business Review 

L'IA physique est la véritable révolution de l'industrie manufacturière

Pour Steve Ricketts, vice-président du développement commercial chez Fictiv, 2026 marque le basculement de l'IA conversationnelle vers ce qu'il nomme l'"IA physique" : la convergence entre réseaux de neurones et systèmes mécaniques embarqués. Sur le terrain, cette transition se manifeste dans trois segments concrets : les robots mobiles autonomes (AMR) capables d'interagir avec les rayonnages en bout de ligne, les cobots équipés de perception haptique pour l'assemblage électronique aux côtés d'opérateurs humains, et les bras robotisés dotés de vision IA pour le contrôle qualité, capables selon Fictiv de détecter des microfissures dans des aubes de turbines invisibles à l'oeil nu. L'article ne fournit pas de chiffres de déploiement précis et s'appuie sur des cas génériques. Sur le plan industriel, MISUMI, distributeur japonais de composants coté en bourse, a acquis Fictiv, marketplace de fabrication à la demande (CNC, injection, impression 3D). La combinaison des deux a permis à un client entreprise non nommé de rapatrier sa production aux États-Unis, en consolidant flux matière et production multi-régions pour accélérer le ramp-up. Ce qui distingue cette vague des précédentes est le raccourcissement de la boucle de développement via les pipelines "sim-to-real" : des agents IA s'entraînent dans des jumeaux numériques photoréalistes, exécutant des millions d'itérations en quelques heures avant tout déploiement physique. Cette approche permet de traiter des tâches à haute variabilité, comme le tri de ferraille non structurée ou la navigation en couloir hospitalier, jusqu'ici impossibles à automatiser de façon fiable. Pour les intégrateurs et les décideurs industriels, le signal opérationnel est double : le rôle du développeur bascule de "programmeur" à "entraîneur", et le critère de sélection des plateformes se déplace vers la capacité à absorber des feedbacks terrain en production réelle. Le vrai goulot d'étranglement identifié pour 2026 n'est plus algorithmique mais physique : la "scaling wall", soit la capacité à fabriquer des milliers d'unités de hardware en qualité constante dans une supply chain mondiale sous tension. Il faut noter que cet article est signé par le VP de Fictiv lui-même, lui conférant une tonalité promotionnelle assumée plutôt qu'analytique indépendante. Dans le paysage concurrentiel, Amazon déploie déjà des humanoïdes Digit d'Agility Robotics dans ses entrepôts, tandis que Boston Dynamics, Figure et 1X intensifient leurs pipelines commerciaux. Du côté européen, des acteurs comme Enchanted Tools ou Wandercraft avancent sur des niches spécifiques (robotique hospitalière, exosquelettes), mais restent absents de cette analyse orientée marché nord-américain. Le prochain jalon annoncé est la conférence Robotics Summit & Expo de Boston, en mai 2026, où Ricketts interviendra sur le thème "Emergent Robotics : AI at the Edge of Hardware Innovation".

IA physiqueOpinion
1 source
Optimisation bi-niveaux pour la planification du mouvement et des contacts dans les robots à jambes assistés par corde
163arXiv cs.RO 

Optimisation bi-niveaux pour la planification du mouvement et des contacts dans les robots à jambes assistés par corde

Des chercheurs ont publié sur arXiv (2604.26910) un framework de planification pour robots à pattes assistés par câble, capables de grimper des surfaces verticales. Le système repose sur une optimisation bi-niveau qui résout un problème mixte entier-continu : au niveau supérieur, la méthode Cross-Entropy sélectionne les régions de terrain viables pour l'appui des membres ; au niveau inférieur, une optimisation non linéaire à gradient calcule les mouvements dynamiquement réalisables, en optimisant simultanément les tensions du câble, les forces exercées par les pattes, et la localisation précise des points de contact. L'approche est validée sur une plateforme expérimentale inédite baptisée ALPINE, testée sur plusieurs configurations de terrain difficiles. L'intérêt principal réside dans la décomposition du problème de planification de contact sur surfaces verticales, longtemps considéré comme computationnellement intractable pour les robots à pattes. Le schéma bi-niveau sépare la sélection discrète des zones d'appui de l'optimisation continue des forces et trajectoires, rendant le problème soluble en temps raisonnable. Pour les concepteurs de robots d'inspection d'infrastructure, de maintenance en hauteur ou de recherche en milieu confiné vertical, cette architecture offre un cadre de planification là où les AMR à roues sont inopérants. La robotique grimpante reste un domaine de niche en progression. Les approches antérieures reposaient principalement sur des ventouses, des griffes ou des systèmes d'escalade fortement contraints géométriquement. L'hybridation câble-pattes ouvre une voie potentiellement plus adaptable aux surfaces irrégulières. ETH Zurich via ANYbotics, le MIT et Boston Dynamics ont exploré la locomotion en terrain difficile, mais sans assistance câble active intégrée dans la boucle de planification. ALPINE constitue donc une contribution expérimentale distincte, même si le papier reste un preprint sans validation industrielle ni déploiement annoncé.

RecherchePaper
1 source
Liaisons de jambes robotiques extensibles et rétractables dynamiquement pour l'exécution de tâches multiples en recherche et sauvetage
164arXiv cs.RO 

Liaisons de jambes robotiques extensibles et rétractables dynamiquement pour l'exécution de tâches multiples en recherche et sauvetage

Des chercheurs ont publié sur arXiv (identifiant 2511.10816, révision 3, avril 2026) les travaux autour d'un nouveau concept de jambe robotique à géométrie variable, baptisé DERRL (Dynamically Extensible and Retractable Robotic Leg Linkage). Le mécanisme repose sur un cinquième bras articulé (five-bar linkage) dont la géométrie peut être reconfigurée à la volée, basculant entre deux modes : une configuration "avantagée en hauteur" pour franchir rapidement des obstacles, et une configuration "avantagée en force" pour exercer des efforts élevés lors des phases d'extraction de victimes. Les expériences sur banc de test ont porté sur trois métriques principales : la longueur de foulée, l'amplitude de force en sortie, et la stabilité dynamique selon les différentes géométries de bras. Le point critique ici est que la robotique SAR (Search and Rescue) souffre d'un problème structurel non résolu : les robots à pattes excellent dans la traversée de terrain accidenté mais peinent à générer des forces d'extraction contrôlées, là où les transmissions à roues font l'inverse. Aucune plateforme existante ne réunit aujourd'hui ces deux capacités de façon satisfaisante. Ce travail propose une voie mécanique plutôt qu'algorithmique pour combler ce fossé, ce qui est notable : la transformation entre modes s'effectue par reconfiguration géométrique, sans changer l'actionneur. C'est un signal intéressant pour les intégrateurs industriels, car cela suggère une robustesse matérielle supérieure aux approches purement contrôle-logiciel. La recherche en robotique SAR connaît une dynamique soutenue depuis les années 2010, portée par des catastrophes comme Fukushima ou les séismes au Maroc et en Turquie. Des plateformes comme le Spot de Boston Dynamics ou l'ANYmal de ANYbotics (ETH Zürich) sont ponctuellement engagées dans ce contexte, mais sans capacité d'extraction lourde intégrée. Ce travail est purement académique à ce stade : aucun prototype complet, aucune démonstration en environnement réel, aucun partenaire industriel annoncé. La prochaine étape logique serait une intégration sur châssis quadrupède et un test en environnement dégradé simulé, avant toute validation opérationnelle.

RecherchePaper
1 source
Navigation sociale à long terme pour l'assistance extérieure centrée sur l'humain
165arXiv cs.RO 

Navigation sociale à long terme pour l'assistance extérieure centrée sur l'humain

Des chercheurs ont publié sur arXiv (référence 2604.26839) un cadre de navigation sociale en extérieur baptisé "Walk with Me", conçu pour assister des humains dans des environnements ouverts à partir d'instructions en langage naturel. Le système fonctionne sans carte préétablie (map-free) : il s'appuie uniquement sur le GPS et des points d'intérêt légers issus d'une API cartographique publique pour identifier les destinations sémantiques et proposer des waypoints. L'architecture est hiérarchique à deux niveaux : un modèle vision-langage (VLM) de haut niveau traduit les intentions abstraites en séquences de waypoints, tandis qu'un modèle vision-langage-action (VLA) de bas niveau exécute la navigation au sol en temps réel. Lorsque des situations complexes surgissent, comme des traversées bondées ou des zones à risque, le système bascule automatiquement vers le raisonnement de sécurité du VLM, pouvant imposer un comportement "stop-and-wait" explicite. L'apport principal est l'élimination de la dépendance aux cartes HD préconstruites, qui représentent un coût d'infrastructure significatif pour tout déploiement de robots d'assistance en milieu urbain ou semi-public. Les approches classiques basées sur l'apprentissage restent majoritairement confinées aux intérieurs et aux trajets courts ; "Walk with Me" vise explicitement à combler ce fossé pour des scénarios extérieurs à longue portée. Le mécanisme de routage adaptatif, qui distingue les segments routiniers délégués au VLA des situations complexes renvoyées au VLM, constitue une piste crédible pour économiser les ressources de calcul tout en maintenant la conformité sociale. À noter cependant : le papier ne publie pas de métriques quantifiées sur des scénarios réels, ce qui rend difficile l'évaluation du reality gap et de la robustesse hors laboratoire. Cette recherche s'inscrit dans une effervescence autour des VLA pour la navigation sociale, aux côtés de travaux comme NaviLLM ou les systèmes piétons de Boston Dynamics Research. La navigation extérieure à longue portée reste un verrou non résolu pour les robots humanoïdes commerciaux actuels, Figure AI (Figure 03), Agility Robotics (Digit), Sanctuary AI, qui opèrent encore majoritairement dans des environnements contrôlés et cartographiés. En Europe, Enchanted Tools et Wandercraft travaillent sur des assistants mobiles, mais dans des contextes d'intérieur structuré. Aucun partenaire industriel ni calendrier de déploiement n'est mentionné dans cette publication arXiv, la classant fermement dans la catégorie recherche académique. Les prochaines étapes attendues incluent une validation sur des benchmarks standardisés de navigation sociale et des tests urbains documentés en conditions non contrôlées.

RechercheOpinion
1 source
Melody : un robot humanoïde maîtrise 39 degrés de liberté pour une présence quasi humaine
166Interesting Engineering 

Melody : un robot humanoïde maîtrise 39 degrés de liberté pour une présence quasi humaine

Realbotix, entreprise canadienne spécialisée dans la robotique humanoïde, déploie son robot Melody dans un rôle d'accueil lors de la conférence Bitcoin 2026 au Venetian Resort de Las Vegas, du 27 au 29 avril 2026. Melody appartient à la gamme M-Series, une plateforme modulaire à corps entier dotée de 39 degrés de liberté concentrés dans la partie supérieure du corps, la partie inférieure restant fixe. Le robot est disponible en configurations masculine, féminine ou sur-mesure, et peut être installé en position assise, debout ou de bureau. Alimenté par prise électrique standard sans contrainte de batterie, il tourne en continu sur une journée complète. Sur site, Melody accueille les participants, les aide à localiser les stands et répond aux questions générales grâce à un système d'IA conversationnelle propriétaire développé par Realbotix. La plateforme est proposée à partir de 95 000 dollars, ce qui la positionne clairement dans le segment haut de gamme des interfaces physiques d'accueil. Ce qui est notable ici n'est pas tant la prouesse technique brute que le positionnement commercial : Realbotix cible explicitement les environnements à fort trafic humain où les bornes interactives classiques montrent leurs limites en termes d'engagement. Avec 39 DDL en partie supérieure, Melody peut produire des expressions faciales, des gestes et un contact visuel suffisamment fluides pour réduire l'effet "vallée dérangeante" qui a longtemps freiné l'adoption des robots humanoïdes en contexte public. La modularité des visages et panneaux de carrosserie ouvre la voie à des déploiements multi-marques ou multi-contextes sans changer de plateforme matérielle. Pour un intégrateur ou un décideur B2B, le modèle économique est celui d'un remplacement de kiosque à ROI mesurable sur la qualité d'interaction, non sur la productivité opérationnelle. Il faut cependant noter que cette présentation à Las Vegas reste une démonstration publique contrôlée, pas un déploiement commercial à grande échelle, et qu'aucune donnée de performance terrain n'a été publiée à ce stade. Realbotix opère dans un segment en pleine ébullition, celui des humanoïdes orientés "présence" plutôt que manipulation industrielle. La startup chinoise AheadForm pousse des concepts similaires avec ses séries Origin F1 et Elf, combinant IA auto-supervisée et mouvements bioniques avec synchronisation labiale précise. Ces acteurs se distinguent des approches Boston Dynamics ou Figure AI, qui visent la manutention et la logistique. Andrew Kiguel, PDG de Realbotix, positionne explicitement la M-Series comme une "interface physique pour l'IA" dans les secteurs de service, une thèse que plusieurs grandes chaînes hôtelières et aéroports testent discrètement depuis 2024. La suite logique serait des pilotes dans des environnements comme les hôtels, les banques ou les aéroports, mais Realbotix n'a pas annoncé de partenariats commerciaux formels au-delà de cette démonstration.

HumanoïdesOpinion
1 source
Vidéo : le robot humanoïde Unitree G1 épate avec des sauts acrobatiques et pirouettes sur patins
167Interesting Engineering 

Vidéo : le robot humanoïde Unitree G1 épate avec des sauts acrobatiques et pirouettes sur patins

Unitree Robotics a publié le 23 avril une vidéo montrant son robot humanoïde G1 exécuter des figures sur rollers et patins à glace : virages à 360 degrés, rotations sur une jambe, et frontflips, le tout en maintenant l'équilibre via un contrôle coordonné des roues et des membres articulés. La plateforme G1 est un hybride roues-jambes lancé en novembre 2025 sous la désignation G1-D, disponible en deux versions. La version Standard, stationnaire, embarque 17 degrés de liberté ; la version Flagship, motorisée par une base à entraînement différentiel capable de 1,5 m/s, monte à 19 DOF. Les deux variantes mesurent entre 126 et 168 cm pour un poids maximal de 80 kg. Chaque bras offre 7 DOF et supporte une charge utile de 3 kg. L'articulation de taille permet 155° de rotation sur l'axe Z et une plage de -2,5° à 135° sur l'axe Y, couvrant une enveloppe de travail verticale de 2 mètres. La perception repose sur une caméra binoculaire en tête et des caméras poignet pour la vision rapprochée. La version Flagship tourne sur un module Nvidia Jetson Orin NX délivrant jusqu'à 100 TOPS, avec une autonomie annoncée de six heures. Cette démonstration illustre une tendance de fond : la mobilité humanoïde sort du strict bipédisme pour intégrer la locomotion hybride. L'association roues et jambes avait été largement laissée de côté au profit du seul marcheur anthropomorphe, considéré comme la voie vers les environnements humains. Unitree repose la question en montrant qu'un humanoïde peut gagner en efficacité énergétique et en polyvalence terrain sans sacrifier l'adaptabilité des membres. Sur le fond, la vidéo reste une démonstration contrôlée, pas un déploiement industriel, et les conditions de tournage ne sont pas précisées. Ce type de footage sélectif est courant dans le secteur et ne documente pas les taux d'échec ni les conditions réelles d'opération. Ce qui est lisible, néanmoins, c'est la maturité des algorithmes de contrôle temps réel et l'apport de l'entraînement en simulation pour des mouvements dynamiques complexes. Unitree, fondée en Chine et connue pour ses quadrupèdes Go1 et B2, a accéléré son virage humanoïde avec le G1 commercialisé à partir de 16 000 dollars en 2024, un prix agressif qui le positionne directement contre les plateformes de recherche d'Agility Robotics (Digit), Figure (Figure 02) et Boston Dynamics (Atlas). Le G1-D intègre un stack logiciel complet couvrant l'annotation de données, la simulation et l'entraînement distribué, ce qui signale une ambition au-delà du hardware : se positionner comme plateforme de développement de modèles d'action (VLA). La prochaine étape attendue du secteur est le passage de ces démos en conditions contrôlées à des déploiements industriels répétables, un saut que ni Unitree ni ses concurrents n'ont encore documenté publiquement à grande échelle.

UELa démonstration Unitree G1-D accentue la pression concurrentielle sur les acteurs européens du secteur humanoïde, en confirmant la capacité des fabricants chinois à proposer des plateformes polyvalentes à prix agressif sans déploiement industriel documenté à ce stade.

HumanoïdesOpinion
1 source
RPG : commutation robuste de politiques pour des transitions fluides entre compétences en combat humanoïde
168arXiv cs.RO 

RPG : commutation robuste de politiques pour des transitions fluides entre compétences en combat humanoïde

Une équipe de chercheurs a publié le 21 avril 2026 sur arXiv (2604.21355) un framework baptisé RPG (Robust Policy Gating), conçu pour permettre à des robots humanoïdes d'enchaîner plusieurs compétences de combat dynamique sans instabilité. L'approche repose sur une politique unifiée entraînée avec deux mécanismes de randomisation : la randomisation des transitions de mouvement, qui expose la politique à des états initiaux et terminaux variés entre compétences, et la randomisation temporelle, qui rend l'agent robuste aux coupures imprévises dans la séquence de mouvements. La pipeline de contrôle intègre la locomotion (marche, course) avec les compétences de combat, permettant théoriquement des séquences de durée arbitraire. Le système a été validé en simulation extensive, puis déployé sur le robot humanoïde Unitree G1, la plateforme à 23 DDL du constructeur chinois Unitree Robotics. Le problème central que RPG adresse est connu dans le domaine sous le nom de "skill transition gap" : lorsqu'un agent bascule d'une politique spécialisée à une autre, les états terminaux de la première ne correspondent pas aux états initiaux supposés de la seconde, produisant des comportements hors domaine, des chutes ou des mouvements saccadés. Les approches concurrentes utilisent soit une commutation entre politiques mono-compétence, soit une politique généraliste qui imite des motion clips de référence -- les deux souffrent de ce décalage. RPG propose une solution d'entraînement plutôt que d'architecture, ce qui est notable : la robustesse aux transitions est injectée pendant la phase d'apprentissage, pas via un mécanisme de gating à l'inférence. L'absence de métriques quantitatives dans la publication (temps de cycle, taux de chute, nombre de transitions testées) limite cependant la comparaison directe avec d'autres travaux. RPG s'inscrit dans une vague active de recherche sur le contrôle corps entier des humanoïdes pour des tâches hautement dynamiques, un domaine où les laboratoires UCB, CMU et Stanford publient régulièrement depuis 2023. L'utilisation du G1 comme plateforme de validation est cohérente avec sa popularité croissante en recherche académique, notamment grâce à son coût inférieur à celui des plateformes concurrentes (Boston Dynamics Atlas, Agility Digit). Sur le plan commercial, des acteurs comme Figure AI, 1X Technologies ou Apptronik ciblent des tâches répétitives en entrepôt plutôt que le combat, mais les techniques de transition de compétences développées ici sont directement transposables aux scénarios industriels nécessitant des enchaînements fluides de manipulation et de locomotion. La prochaine étape naturelle serait une évaluation quantitative en conditions adversariales réelles, ainsi qu'un transfert vers des tâches moins "spectaculaires" mais plus proches du déploiement B2B.

RecherchePaper
1 source
Unitree Robotics présente un robot humanoïde à roues et jambes capable de patiner et d'effectuer des figures acrobatiques
169Pandaily 

Unitree Robotics présente un robot humanoïde à roues et jambes capable de patiner et d'effectuer des figures acrobatiques

Le 23 avril 2026, Unitree Robotics a diffusé une vidéo présentant les capacités de son robot humanoïde hybride à roues et jambes, la plateforme G1-D. Les séquences montrent l'engin enchaîner patinage sur glace, roller, rotations à 360 degrés, pirouettes sur un appui et saltos avant, en alternant de manière autonome entre modes roues et bipède selon les exigences du terrain. L'entreprise positionne cette architecture comme un vecteur de polyvalence pour les robots à usage général, adaptables à des environnements variés sans changement de plateforme matérielle. Aucune métrique technique indépendante (charge utile, degrés de liberté, temps de cycle opérationnel) n'accompagne la publication : il s'agit d'une vidéo promotionnelle dont les conditions précises de tournage restent inconnues. Le contrôle multimodal illustré représente un défi technique réel : la transition fluide entre locomotion roues et locomotion pédestre exige des politiques de contrôle capables de gérer des dynamiques radicalement différentes, généralement entraînées par apprentissage par renforcement. Pour les intégrateurs industriels, la question centrale est celle de la polyvalence opérationnelle : une architecture hybride permet-elle de couvrir plusieurs cas d'usage (logistique en entrepôt et manutention debout) sur un seul déploiement matériel, ou ajoute-t-elle de la complexité sans avantage net ? La réponse reste ouverte tant qu'aucun pilote industriel documenté ne valide les performances hors conditions contrôlées. Unitree Robotics, fondée en 2016 à Hangzhou, s'est imposée avec le Go1, le B2 et l'humanoïde H1 comme l'un des fabricants de robots les plus prolifiques du marché semi-industriel. La plateforme G1-D intègre une solution complète de collecte de données et d'entraînement de modèles pour accélérer l'optimisation des algorithmes de locomotion. Sur le segment humanoïde, la concurrence directe de Figure, Boston Dynamics et Agility Robotics reste sur des architectures entièrement bipèdes, ce qui fait de l'hybridation roues-jambes un pari différenciant mais encore non validé en production. En France et en Europe, aucun acteur ne travaille sur cette architecture spécifique à échelle industrielle, laissant le terrain largement ouvert à l'offre asiatique.

UEAucun acteur européen ne développe d'architecture hybride roues-jambes à échelle industrielle, laissant un segment potentiel de marché ouvert à l'offre asiatique si la plateforme G1-D se valide hors conditions contrôlées.

HumanoïdesOpinion
1 source
OmniUMI : vers un apprentissage robotique ancré dans le monde physique par interaction multimodale alignée sur l'humain
170arXiv cs.RO 

OmniUMI : vers un apprentissage robotique ancré dans le monde physique par interaction multimodale alignée sur l'humain

Des chercheurs ont présenté OmniUMI, un nouveau cadre d'apprentissage robotique conçu pour dépasser les limites des systèmes actuels en intégrant des données multimodales physiquement ancrées. Là où les interfaces de type UMI existantes se limitent à des observations visuelles RGB et des trajectoires, OmniUMI capture simultanément six types de données : images RGB, profondeur, trajectoire, retour tactile, force de préhension interne et couple d'interaction externe. Ce dispositif tient dans la main et maintient une cohérence entre la phase de collecte des démonstrations humaines et le déploiement sur le robot, grâce à une conception d'embodiment partagé. Les politiques apprises reposent sur une extension de la diffusion policy intégrant ces signaux visuels, tactiles et de force, déployée via une exécution à impédance pour réguler conjointement le mouvement et le contact. Les expériences valident le système sur des tâches comme le saisissement et le dépôt sensibles à la force, l'effacement de surface interactif, et le relâchement sélectif guidé par le toucher. La portée de cette avancée tient à un problème fondamental de la robotique : les tâches impliquant un contact physique riche, comme assembler des pièces fragiles, manipuler des objets déformables ou effectuer des gestes précis avec pression calibrée, restent hors de portée des systèmes purement visuels. La vision seule ne peut pas inférer la dynamique de contact, la force exercée, ni les micro-glissements tactiles. En permettant au démonstrateur humain de percevoir et moduler naturellement ces forces via un retour bilatéral du préhenseur, OmniUMI aligne la démonstration humaine sur la réalité physique du robot, rendant les données collectées directement exploitables. Le contexte est celui d'une course à la manipulation robotique généraliste, où des laboratoires et entreprises comme Google DeepMind, Physical Intelligence ou Boston Dynamics investissent massivement. Les interfaces UMI, popularisées ces dernières années pour leur facilité de collecte de données à grande échelle, butaient précisément sur ce mur du toucher et de la force. OmniUMI ouvre une voie vers des systèmes capables d'apprendre des tâches industrielles ou médicales où la précision physique est critique, tout en conservant le paradigme de démonstration humaine qui a fait le succès des approches d'imitation à grande échelle.

IndustrielOpinion
1 source
Optimisation cinématique des rapports de longueur des phalanges dans les mains robotiques par dextérité potentielle
171arXiv cs.RO 

Optimisation cinématique des rapports de longueur des phalanges dans les mains robotiques par dextérité potentielle

Des chercheurs ont publié sur arXiv (référence 2604.20686) un cadre méthodologique permettant d'optimiser les proportions des phalanges dans les mains robotiques à cinq doigts, sans avoir à définir au préalable des objets précis ou des tâches de manipulation. Le système repose sur quatre métriques d'évaluation : la manipulabilité globale, le volume de l'espace de travail atteignable, le volume d'espace de travail partagé entre les doigts, et la sensibilité des extrémités. L'espace de travail est discrétisé via une représentation en voxels, et les mouvements articulaires sont découpés à intervalles uniformes pour permettre une évaluation systématique. L'optimisation s'applique séparément au pouce et aux quatre autres doigts, en excluant les combinaisons de conception qui ne génèrent pas de chevauchement d'espace de travail entre les doigts. Ce travail répond à un problème concret du développement robotique : jusqu'ici, évaluer quantitativement l'impact des ratios de longueur des phalanges sur la dextérité nécessitait de simuler des scénarios de manipulation spécifiques, ce qui rendait la phase de conception longue et peu généralisable. En proposant une fonction objectif pondérée applicable dès la phase de conception cinématique, les auteurs offrent aux ingénieurs un outil de décision précoce, indépendant des cas d'usage. Les résultats montrent que chaque phalange ne contribue pas de manière égale à la dextérité globale, et que le choix des coefficients de pondération ne conduit pas mécaniquement à maximiser chaque indicateur individuellement, en raison de la distribution non uniforme des mesures dans l'espace de conception. La conception des mains robotiques multi-doigts constitue l'un des défis persistants de la robotique humanoïde et de la manipulation industrielle. Des acteurs comme Boston Dynamics, Shadow Robot ou Agility Robotics investissent massivement dans la dextérité des effecteurs, qui conditionne directement l'utilisabilité des robots dans des environnements non structurés. Ce cadre méthodologique, en analysant systématiquement les compromis entre accessibilité, dextérité et contrôlabilité, pourrait accélérer les cycles de prototypage et s'imposer comme référence dans la conception cinématique des mains robotiques de nouvelle génération.

HumanoïdesPaper
1 source
X Square Robot lance WALL-B, un modèle d'IA embarquée pour usage domestique
172Pandaily 

X Square Robot lance WALL-B, un modèle d'IA embarquée pour usage domestique

La startup chinoise X Square Robot a présenté le 21 avril 2026 WALL-B, qu'elle décrit comme le premier modèle fondamental d'IA incarnée au monde basé sur une architecture World Unified Model (WUM). Contrairement aux approches traditionnelles de type Vision-Language-Action (VLA), WALL-B fusionne nativement la vision, le langage, le mouvement et la prédiction physique dans un entraînement conjoint. Le modèle repose sur trois capacités clés : la multimodalité native, la compréhension de la dynamique du monde physique, et la capacité d'auto-amélioration après un échec. Pour construire ce modèle, X Square Robot a utilisé une combinaison de données expérimentales et de scénarios réels, incluant des données collectées dans des centaines de foyers. La société a annoncé qu'en l'espace de 35 jours, des robots équipés de WALL-B et d'un hardware amélioré seront déployés dans de vraies maisons, avec un recrutement d'utilisateurs déjà lancé. Des détails techniques supplémentaires seront dévoilés le 27 avril lors de la première conférence sur les applications de l'IA du Guangdong. Ce lancement marque une rupture significative dans la robotique domestique. Les architectures VLA classiques souffrent de pertes d'information entre leurs modules et peinent à modéliser la physique du monde réel, deux limitations directement adressées par WALL-B. La capacité d'auto-évolution après l'échec est particulièrement notable : elle permettrait à un robot de s'adapter aux imprévus du quotidien sans intervention humaine, ce qui est le principal obstacle à la commercialisation grand public de robots domestiques. Pour les utilisateurs, cela ouvre la voie à des assistants capables de naviguer dans l'environnement complexe et imprévisible d'un foyer réel. La Chine investit massivement dans la robotique humanoïde et incarnée, avec une concurrence intense entre startups locales et géants comme Huawei ou Xiaomi. X Square Robot s'inscrit dans cette dynamique en ciblant explicitement le marché résidentiel, là où des acteurs comme Figure AI ou Boston Dynamics se concentrent davantage sur l'industrie. Pour lever les freins liés à la vie privée, la société a intégré une anonymisation visuelle locale, une autorisation explicite des utilisateurs et des restrictions d'usage strictes. La prochaine étape sera le déploiement en conditions réelles dans des foyers, un test grandeur nature qui déterminera si l'approche WUM tient ses promesses face aux exigences du monde domestique.

HumanoïdesActu
1 source
HALO : locomotion hybride auto-encodée avec dynamiques latentes apprises, cartes de Poincaré et régions d'attraction
173arXiv cs.RO 

HALO : locomotion hybride auto-encodée avec dynamiques latentes apprises, cartes de Poincaré et régions d'attraction

HALO (Hybrid Auto-encoded Locomotion with Learned Latent Dynamics) est un framework académique publié en avril 2026 sur arXiv (2604.18887) autour d'un problème central de la robotique bipedale : construire des modèles d'ordre réduit qui représentent fidèlement la dynamique hybride des robots à jambes tout en offrant des garanties formelles de stabilité. L'approche combine un autoencodeur neuronal, qui apprend une représentation latente basse dimension depuis des trajectoires de locomotion périodique, avec une carte de Poincaré apprise dans cet espace latent. Cette carte modélise la dynamique pas-à-pas du cycle de marche ou de saut et permet de construire des régions d'attraction (RoA) via une analyse de Lyapunov, projetables ensuite vers l'espace d'état complet via le décodeur. Les validations sont conduites en simulation sur un robot sauteur et un humanoïde corps entier. Ce travail tente de combler un fossé persistant entre deux familles de méthodes. Les modèles analytiques classiques comme le Linear Inverted Pendulum (LIP) ou le Spring-Loaded Inverted Pendulum (SLIP) offrent des garanties de stabilité rigoureuses, mais approximent mal la dynamique réelle d'un humanoïde haute dimensionnalité. Les méthodes data-driven récentes capturent mieux la physique du système, mais sans transfert formel des propriétés de stabilité au système complet. HALO propose une voie hybride : apprendre la structure de l'espace d'état depuis les données, puis y appliquer les outils classiques de l'automatique. Pour les développeurs de contrôleurs de locomotion, borner formellement des zones de stabilité sans modèle analytique exact constitue un apport potentiellement significatif. L'approche s'ancre dans une littérature établie sur les systèmes dynamiques hybrides à contacts discontinus, notamment les hybrid zero dynamics et les Control Barrier Functions (CBF) développés par Aaron Ames à Caltech. La carte de Poincaré, outil classique pour analyser les orbites périodiques, est ici apprise depuis les données plutôt que dérivée analytiquement. La limite principale reste l'absence totale de validation sur robot physique : les résultats sont exclusivement en simulation, et le gap sim-to-real n'est pas adressé. Les acteurs industriels comme Boston Dynamics, Agility Robotics ou Figure, qui déploient des humanoïdes en environnement réel, resteront prudents avant d'intégrer des RoA apprises sans expérimentation hardware. Les suites logiques impliqueraient des tests sur plateforme physique et une intégration dans des pipelines MPC ou des frameworks comme Drake.

RecherchePaper
1 source
LatentMimic: Terrain-Adaptive Locomotion via Latent Space Imitation
174arXiv cs.RO 

LatentMimic: Terrain-Adaptive Locomotion via Latent Space Imitation

Des chercheurs ont publié le 22 avril 2026 un préprint sur arXiv (arXiv:2604.16440) présentant LatentMimic, un cadre d'apprentissage de la locomotion pour robots quadrupèdes conçu pour concilier deux objectifs jusqu'ici antagonistes : reproduire fidèlement le style de marche issu de données de capture de mouvement (mocap) et s'adapter dynamiquement à des terrains irréguliers. L'approche repose sur une imitation dans l'espace latent : plutôt que de contraindre le robot à répliquer exactement les poses géométriques enregistrées, LatentMimic minimise la divergence marginale entre la distribution état-action de la politique apprise et un prior mocap entraîné séparément. Le système intègre également un module d'adaptation au terrain équipé d'un buffer de replay dynamique, destiné à corriger les dérives de distribution lorsque le robot passe d'un type de sol à un autre. Les évaluations portent sur quatre styles locomoteurs et quatre types de terrain, démontrant des taux de franchissement supérieurs aux méthodes de suivi de mouvement actuelles tout en conservant une haute fidélité stylistique. Ce travail s'attaque à un compromis fondamental qui freine le déploiement des robots quadrupèdes dans des environnements non structurés : les méthodes d'imitation stricte bloquent l'adaptabilité terrain, tandis que les politiques terrain-centriques sacrifient la naturalité du mouvement. En découplant la topologie de la foulée des contraintes géométriques d'extrémité, LatentMimic suggère qu'il est possible d'obtenir les deux à la fois. Pour les intégrateurs industriels et les équipes robotique, cela ouvre la voie à des contrôleurs plus robustes sur sols accidentés, escaliers ou surfaces déformables, sans devoir re-collecter des données mocap spécifiques à chaque terrain. La locomotion quadrupède par imitation est un axe de recherche actif depuis plusieurs années, avec des travaux notables comme AMP (Adversarial Motion Priors, Berkeley 2021) ou les méthodes sim-to-real de DeepMind sur ANYmal et Spot. LatentMimic s'inscrit dans cette lignée en proposant une relaxation conditionnelle plus fine du suivi de pose. Le paper est pour l'instant un préprint non relu par les pairs, et les résultats sont présentés uniquement en simulation et environnements contrôlés, le gap sim-to-real reste à valider sur hardware réel. Aucun partenariat industriel ni timeline de déploiement n'est mentionné. Les prochaines étapes naturelles seraient une validation sur plateformes physiques (Unitree, Boston Dynamics Spot) et une extension à des styles locomoteurs plus complexes comme le trot ou le galop en terrain extrême.

RecherchePaper
1 source
Les gens apprécient-ils un entraîneur robot ? Étude de cas avec Snoopie le Pacerbot
175arXiv cs.RO 

Les gens apprécient-ils un entraîneur robot ? Étude de cas avec Snoopie le Pacerbot

Une équipe de chercheurs a développé SNOOPIE (Snoopie Pacerbot), un robot quadrupède autonome conçu pour servir d'entraîneur personnel lors de séances d'interval training. Publié sur arXiv (2604.18331), le travail porte sur une tâche spécifique : guider des coureurs à maintenir un rythme précis sur des intervalles répétés, une discipline où la régularité est critique. Dans les expériences utilisateurs menées, les participants équipés du robot ont respecté leur plan de cadence avec 60,6 % de précision supplémentaire par rapport à un groupe utilisant une Apple Watch, et ont maintenu une vitesse de course 45,9 % plus régulière d'un intervalle à l'autre. Sur le plan subjectif, la préférence pour le robot sur le wearable est nette : facilité d'utilisation (+56,7 %), plaisir de l'interaction (+60,6 %), sentiment d'être bien accompagné (+39,1 %). Ces résultats soulèvent une question concrète pour les intégrateurs et les concepteurs de systèmes d'entraînement connecté : la présence physique incarnée d'un robot apporte-t-elle une valeur ajoutée mesurable par rapport à un écran ou un capteur poignet ? L'étude suggère que oui, au moins dans ce cas précis. Le robot peut ajuster son allure en temps réel, maintenir une distance constante avec le coureur, et fournir un retour visuel et cinétique que ni une montre ni une application mobile ne peuvent reproduire. Cela conforte l'hypothèse que l'embodiment robotique n'est pas qu'un argument marketing dans les contextes d'interaction physique prolongée : il modifie effectivement le comportement de l'utilisateur. Ces données restent néanmoins issues d'une étude de laboratoire à effectif limité, et les conditions réelles (terrain variable, foule, météo) n'ont pas été testées. Les robots quadrupèdes agiles comme ceux de Boston Dynamics (Spot) ou les plateformes issues des travaux de l'ETH Zurich et de CMU ont ouvert la voie à une nouvelle génération de robots capables de se déplacer de manière fiable dans des environnements non structurés. SNOOPIE s'inscrit dans cette lignée en poussant l'usage vers une application grand public et de bien-être, un territoire encore peu exploré par l'industrie. Les concurrents directs dans le créneau coaching physique robotisé sont quasi inexistants à ce stade commercial, mais des entreprises comme Agility Robotics ou Unitree pourraient théoriquement adapter leurs plateformes à ce type d'usage. Les suites annoncées par l'équipe incluent des tests en conditions extérieures et l'intégration de retours verbaux, avec l'ambition de transformer SNOOPIE en dispositif d'entraînement personnalisé adaptatif à plus long terme.

RecherchePaper
1 source
Maniformer lance une plateforme de données d'IA physique tout-en-un pour préparer l'ère de l'AGI
176Pandaily 

Maniformer lance une plateforme de données d'IA physique tout-en-un pour préparer l'ère de l'AGI

Maniformer, startup chinoise spécialisée dans l'infrastructure de données pour l'IA physique, a officiellement lancé sa plateforme de services de données en un seul guichet, accompagnée de la gamme matérielle MEgo et du système de gouvernance MEgo Engine. La gamme MEgo comprend trois composants : le MEgo Gripper pour la capture de données de manipulation robotique, le MEgo View, un dispositif de collecte portable à tête montée, et le MEgo Engine pour le traitement et la gouvernance des données. Ces outils affichent une précision millimétrique, une synchronisation sub-milliseconde et une perception panoramique supérieure à 300 degrés. Le système est nativement compatible avec le robot G2 Air, garantissant la cohérence entre environnements simulés et réels. Selon Yao Maoqing, président-directeur général, l'entreprise vise une capacité de production de dizaines de millions d'heures de données d'ici 2026, puis des dizaines de milliards d'heures d'ici 2030. Le problème que Maniformer cherche à résoudre est structurel : les données d'interaction physique réelle disponibles pour l'IA incarnée représentent moins de 1/20 000 de ce qui existe pour les grands modèles de langage. Ce déficit, combiné à l'absence de standards, à des problèmes de qualité hétérogène et à des inadéquations entre offre et demande, freine concrètement la commercialisation des robots autonomes. En proposant une infrastructure full-stack couvrant la télé-opération réelle, la collecte sans robot dédié et la génération synthétique par simulation, Maniformer cherche à décorréler la production de données de la disponibilité des plateformes robotiques elles-mêmes, une approche qui, si elle tient ses promesses, pourrait accélérer significativement le cycle sim-to-real pour les intégrateurs et les équipes R&D. L'analogie revendiquée avec l'électricité ou l'eau comme utilities est ambitieuse ; elle reste à valider à l'échelle industrielle. L'entreprise s'inscrit dans un contexte de course mondiale aux données d'entraînement pour robots humanoïdes et manipulateurs, où des acteurs comme Physical Intelligence (Pi-0), Boston Dynamics, Figure AI ou Unitree investissent massivement dans leurs propres pipelines de données propriétaires. La stratégie de Maniformer est différente : se positionner en fournisseur tiers d'infrastructure, à la manière d'un AWS pour la donnée physique. L'initiative "Hive" annoncée vise à fédérer des partenaires mondiaux pour co-construire des standards sectoriels, une démarche de standardisation qui, si elle aboutit, pourrait bénéficier à l'ensemble de l'écosystème, y compris aux acteurs européens comme Enchanted Tools ou Wandercraft qui peinent à constituer des datasets suffisants. La prochaine étape annoncée est le déploiement d'un réseau global de collecte de données, sans calendrier précis communiqué au-delà de l'horizon 2026.

UESi l'initiative 'Hive' de standardisation aboutit, les acteurs européens comme Enchanted Tools ou Wandercraft pourraient bénéficier d'une infrastructure de données partagée pour accélérer leurs pipelines sim-to-real.

Chine/AsieActu
1 source
Le nouveau modèle de Google rend les cerveaux robotiques un peu plus intelligents
177The Information AI 

Le nouveau modèle de Google rend les cerveaux robotiques un peu plus intelligents

Google DeepMind a publié cette semaine Gemini Robotics-ER-1.6, un nouveau modèle de vision et de langage conçu pour aider les robots à interpréter leur environnement. Pour illustrer ses capacités, Boston Dynamics, qui dispose d'un accord pour intégrer Gemini dans ses robots humanoïdes, a publié une vidéo de ses robots quadrupèdes utilisant le modèle pour lire un thermomètre lors d'une inspection dans une installation industrielle. Selon les benchmarks internes de Google, les gains restent modestes sur un seul flux caméra : le modèle n'améliore que marginalement la capacité du robot à détecter la fin d'une tâche par rapport aux versions précédentes. En revanche, les performances progressent nettement lorsque le robot exploite plusieurs flux caméra simultanément. C'est précisément là que réside l'enjeu pratique : la majorité des environnements robotiques industriels, qu'il s'agisse d'usines ou d'entrepôts, s'appuient sur plusieurs points de vue combinés, comme une caméra en hauteur et une caméra fixée sur le bras du robot. Le système doit être capable de fusionner ces perspectives pour construire une compréhension cohérente de ce qu'il accomplit et savoir quand la tâche est terminée. Ce lancement s'inscrit dans une course intense entre les grands laboratoires d'IA pour doter les robots d'une intelligence de perception plus robuste. Google DeepMind et Boston Dynamics ont formalisé leur partenariat autour de Gemini pour les robots humanoïdes, signalant une convergence entre les modèles de fondation et la robotique physique. Si les progrès annoncés restent incrémentaux, l'amélioration sur les configurations multi-caméras est directement applicable aux déploiements industriels existants, ce qui pourrait accélérer l'adoption de robots autonomes dans des environnements de travail réels. Les prochaines versions du modèle seront à surveiller pour évaluer si ces gains se traduisent en performances significatives sur des tâches complexes en conditions réelles.

HumanoïdesActu
1 source
Alibaba lance son premier robot incarné via Amap, en débutant par un chien robot
178TechNode 

Alibaba lance son premier robot incarné via Amap, en débutant par un chien robot

La filiale d'Alibaba Amap (connue aussi sous le nom Gaode, leader chinois de la cartographie et navigation mobile) s'apprête à commercialiser son premier produit robotique : un robot quadrupède. Selon des sources internes citées par le média chinois IThome, il s'agirait du premier robot physique jamais lancé par le groupe Alibaba. L'annonce reste pour l'instant au stade de fuite interne, sans date de sortie ni spécifications techniques publiées, payload, degrés de liberté et prix sont inconnus à ce stade. Ce mouvement indique qu'Alibaba étend sa stratégie IA au-delà du cloud et des LLM vers l'intelligence incarnée, un pivot observé chez plusieurs géants technologiques asiatiques. L'équipe d'intelligence embodied d'Amap travaillerait également sur des humanoïdes, et aurait constitué ce qu'elle décrit comme le plus grand moteur de données de navigation embodied de l'industrie, une affirmation difficile à vérifier sans audit indépendant. La maîtrise de la navigation longue séquence (long-horizon tasks) est effectivement un verrou technique clé pour les robots opérant en environnement ouvert. Amap dispose d'un atout structurel rare : une base de données cartographiques et de trajectoires humaines massive, issue de ses centaines de millions d'utilisateurs actifs en Chine, potentiellement exploitable pour entraîner des politiques de navigation robot. Dans un marché quadrupède dominé par Unitree et Boston Dynamics, Alibaba arrive tard mais avec des ressources data considérables. Les concurrents chinois comme Unitree (G1, B2) et DeepRobotics sont déjà en déploiement commercial, ce qui positionne ce lancement davantage comme une entrée stratégique que comme une rupture technologique immédiate.

Chine/AsieActu
1 source
Plus précis que LeBron ? Découvrez CUE7, le robot basketteur révolutionnaire de Toyota
179Le Big Data 

Plus précis que LeBron ? Découvrez CUE7, le robot basketteur révolutionnaire de Toyota

Toyota a dévoilé le 14 avril 2026 la septième génération de son robot basketteur CUE7, une machine capable de tirer au panier, dribbler et se déplacer avec une précision remarquable. Par rapport à son prédécesseur CUE6, ce robot a été considérablement allégé, passant de 120 kg à 74 kg, et adopte une structure à deux roues inversées qui améliore sa stabilité et son agilité. Techniquement, CUE7 repose sur une combinaison de vision artificielle, de planification de mouvement et d'un système hybride mêlant apprentissage par renforcement et contrôle classique : le robot analyse le panier, calcule la distance, ajuste sa posture et déclenche le tir avec une régularité quasi mécanique. En 2019 déjà, la version CUE3 avait enchaîné 2 020 lancers francs réussis d'affilée, une série arrêtée volontairement par les ingénieurs alors que la machine pouvait continuer. En 2024, CUE6 avait décroché un record Guinness avec un tir longue distance impressionnant. Au-delà de l'exploit sportif, CUE7 représente une étape concrète dans le développement de ce que Toyota appelle l'intelligence artificielle incarnée, des systèmes capables d'interagir physiquement avec leur environnement de façon autonome et adaptative. Le basket-ball n'est pas un choix anodin : ce sport impose des défis simultanés complexes, comme la détection de cible, le calcul de trajectoire, la coordination motrice et l'ajustement en temps réel, ce qui en fait un terrain d'expérimentation idéal pour des technologies destinées à des applications industrielles, médicales ou domestiques beaucoup plus larges. La capacité du robot à apprendre de ses erreurs et à affiner ses gestes par itération rapproche son fonctionnement de celui d'un athlète humain s'entraînant séance après séance. Le projet CUE est né à l'origine d'une initiative parallèle portée par des employés passionnés de Toyota, avant d'être intégré dans une démarche de recherche plus structurée. Depuis ses débuts sous forme de prototype LEGO, la série a progressé de génération en génération vers plus d'autonomie, de mobilité et de précision. CUE7 marque le saut le plus visible à ce jour, avec un robot capable non seulement de tirer mais aussi de se déplacer et de dribbler. Cette trajectoire s'inscrit dans une course plus large menée par les grands acteurs industriels, Toyota, Boston Dynamics, Figure, Tesla, pour doter les robots humanoïdes et semi-humanoïdes de capacités physiques comparables à celles de l'humain, ouvrant la voie à des usages concrets dans des environnements non structurés.

HumanoïdesActu
1 source
Vidéo : Ce robot quadrupède utilise l’IA pour imiter la souplesse de la vie sauvage
180Le Big Data 

Vidéo : Ce robot quadrupède utilise l’IA pour imiter la souplesse de la vie sauvage

Des chercheurs du Korea Advanced Institute of Science and Technology (KAIST) ont présenté DreamWaQ++, un système de contrôle pour robots quadrupèdes qui combine caméras, LiDAR et capteurs embarqués pour analyser le terrain en temps réel et adapter chaque pas avant tout contact avec le sol. Lors des tests, le robot a grimpé un escalier de 50 marches en 35 secondes, couvrant plus de 30 mètres à l'horizontale et 7 mètres de dénivelé. Il a également négocié des pentes à 35 degrés, bien au-delà de ce qu'il avait rencontré durant son entraînement, et franchi des obstacles plus hauts que lui tout en portant une charge supplémentaire, le tout en sollicitant moins ses moteurs. Le système repose sur un apprentissage par renforcement capable de fusionner plusieurs flux de données simultanément sans surcharge de calcul, et peut basculer d'un mode de détection à un autre en cas de défaillance d'un capteur. Ce qui change fondamentalement avec DreamWaQ++, c'est le passage d'une locomotion réactive à une locomotion anticipatoire. Les robots quadrupèdes antérieurs s'appuyaient exclusivement sur des capteurs proprioceptifs, codeurs articulaires, centrales inertielles, et ne détectaient un obstacle qu'au moment du contact physique. DreamWaQ++ perçoit l'environnement avant de l'atteindre, analyse la géométrie du sol et recalcule la trajectoire immédiatement, sans planificateur externe. Le robot choisit lui-même son chemin, s'arrête parfois quelques instants pour observer, puis repart : un comportement qui évoque directement celui d'un animal en milieu inconnu. Cette autonomie de décision réduit les risques de chute dans des contextes où une intervention humaine est difficile ou dangereuse. Les applications visées par l'équipe de KAIST couvrent l'inspection industrielle, l'agriculture, la foresterie et les interventions d'urgence en zones sinistrées, autant de secteurs où la mobilité en terrain non structuré est aujourd'hui un verrou technologique. La robotique quadrupède a connu une accélération notable ces dernières années, portée par des acteurs comme Boston Dynamics et ses concurrents chinois tels qu'Unitree, mais la capacité à généraliser au-delà des situations d'entraînement reste un défi central. DreamWaQ++ s'inscrit dans une tendance plus large qui consiste à intégrer la perception extéroceptive profonde dans la boucle de contrôle bas niveau, réduisant la dépendance à la cartographie préalable. L'équipe envisage d'étendre l'approche à d'autres morphologies de robots, bipèdes et à roues inclus, ce qui pourrait accélérer le déploiement de machines autonomes dans des environnements réels non balisés.

HumanoïdesActu
1 source
Vidéo : ce robot humanoïde sprinte à une vitesse jamais vue
181Le Big Data 

Vidéo : ce robot humanoïde sprinte à une vitesse jamais vue

Le robot humanoïde H1 de la start-up chinoise Unitree Robotics a atteint une vitesse de 10,1 mètres par seconde lors d'un test de sprint filmé et publié le 11 avril 2026. La vidéo, diffusée sur le compte officiel d'Unitree, montre la machine traverser une piste d'athlétisme à pleine allure, maintenant une foulée stable et régulière sans rupture d'équilibre visible. Le H1 pèse environ 62 kg pour une longueur de jambe de 80 cm, des proportions proches d'un coureur humain de gabarit moyen. Unitree précise que le dispositif de mesure comporte une légère marge d'erreur, mais la démonstration reste spectaculaire et a largement dépassé les cercles spécialisés de la robotique. Cette performance place le H1 dans une catégorie inédite pour un robot à pattes bipèdes. À titre de comparaison, le record du monde du 100 mètres détenu par Usain Bolt depuis 2009 correspond à une vitesse de pointe d'environ 12,4 m/s. L'écart se resserre, ce qui alimente un débat sérieux sur la trajectoire d'amélioration de ces systèmes. Pour l'industrie, cela signifie que les robots humanoïdes ne sont plus cantonnés à des tâches lentes et contrôlées : la mobilité rapide ouvre des perspectives concrètes en logistique d'urgence, intervention en environnement hostile, ou assistance physique dans des contextes où la réactivité compte. Pour les ingénieurs et compétiteurs du secteur, c'est aussi un signal fort sur l'état de l'art accessible avec du matériel grand public, le H1 n'est pas un prototype de laboratoire confidentiel. Unitree s'est imposé ces dernières années comme l'un des acteurs les plus actifs de la robotique humanoïde abordable, face à des concurrents comme Boston Dynamics, Figure AI ou Agility Robotics. L'approche biomécanique du H1, qui s'inspire directement de l'anatomie humaine pour synchroniser articulations et moteurs, est au coeur de sa stratégie différenciante. La prochaine étape se profile déjà : le 19 avril 2026 se tient la deuxième édition du semi-marathon de robots humanoïdes, un événement qui devrait réunir plusieurs machines en compétition directe sur la même ligne de départ. Les analystes anticipent un niveau de concurrence nettement supérieur à la première édition, ce qui pourrait à nouveau repousser les limites connues de vitesse et d'endurance pour ce type de système. La question n'est plus de savoir si les robots peuvent courir vite, mais jusqu'où cette courbe de progression va s'accélérer.

HumanoïdesActu
1 source
L'étude des attitudes humaines envers les robots par l'expérience
182IEEE Spectrum AI 

L'étude des attitudes humaines envers les robots par l'expérience

Au cours de l'été 2025, le RAI Institute a installé une expérience robotique gratuite et éphémère au centre commercial CambridgeSide de Cambridge, Massachusetts. Sur environ 10 000 visiteurs accueillis, une partie a pu prendre en main les commandes d'un robot quadrupède Spot, fabriqué par Boston Dynamics et considéré comme l'un des robots commerciaux les plus reconnaissables du marché. L'espace se divisait en deux zones : un musée présentant des robots historiques et contemporains, dont des prototypes du RAI Institute comme l'UMV, et une arène de conduite appelée "Drive-a-Spot". Les participants utilisaient un contrôleur adaptatif inspiré des manettes de jeu vidéo, avec des boutons larges utilisables par des enfants dès deux ans comme par des personnes de plus de 90 ans. L'arène changeait de décor toutes les quelques semaines, alternant entre un environnement d'usine, un domicile, un hôpital et un scénario de catastrophe extérieure. L'objectif principal de cette initiative était double : offrir au grand public une rencontre directe avec des robots de pointe, et mesurer scientifiquement l'évolution des perceptions après une interaction réelle. Les visiteurs volontaires remplissaient un questionnaire avant et après avoir conduit le Spot, évaluant leur niveau de confort et la pertinence du robot dans différents contextes professionnels et domestiques. Cette méthodologie est précieuse car la majorité des opinions sur la robotique se forment à partir de la culture populaire et des réseaux sociaux, deux vecteurs qui privilégient les récits sensationnels au détriment d'une représentation fidèle des capacités réelles des machines. Ce que beaucoup de visiteurs ont découvert avec surprise, c'est que Spot est capable d'ajuster ses déplacements de manière autonome pour franchir des obstacles, même lorsqu'il est simplement supervisé par une manette. Cette étude s'inscrit dans un moment charnière pour l'industrie robotique, où les questions d'acceptabilité sociale deviennent aussi stratégiques que les défis techniques. Le RAI Institute, dirigé par Marc Raibert, l'un des fondateurs historiques de la robotique à pattes, cherche à combler le fossé entre les avancées en laboratoire et la perception publique. Le choix des quatre scénarios de l'arène n'est pas anodin : il oppose des environnements où les robots sont déjà largement acceptés, comme l'industrie et les situations d'urgence, à des cadres où l'ambivalence est documentée, notamment le domicile et les établissements de santé. Les résultats de l'enquête, portant sur un échantillon représentatif de la population générale, devraient alimenter la réflexion des concepteurs de robots sur la manière d'intégrer ces machines dans des espaces partagés avec les humains.

Societe/EthiqueActu
1 source
Semaine nationale de la robotique : dernières avancées en IA physique et ressources
183NVIDIA AI Blog 

Semaine nationale de la robotique : dernières avancées en IA physique et ressources

À l'occasion de la Semaine nationale de la robotique aux États-Unis, NVIDIA met en avant ses avancées dans le domaine de l'intelligence artificielle physique, c'est-à-dire l'IA appliquée à des robots capables d'agir dans le monde réel. L'entreprise présente cette semaine une série de technologies couvrant la simulation, la génération de données synthétiques et l'apprentissage automatique pour robots, destinées aux développeurs qui souhaitent concevoir des machines autonomes opérationnelles dans des environnements complexes. L'enjeu est considérable : ces outils permettent de réduire drastiquement le temps nécessaire pour passer de l'entraînement en environnement virtuel au déploiement sur le terrain. Concrètement, un robot peut aujourd'hui apprendre à naviguer, saisir des objets ou réagir à des imprévus dans un simulateur NVIDIA avant d'être testé dans une usine, une serre agricole ou une centrale énergétique. Ce raccourci entre simulation et réalité est l'un des verrous techniques les plus critiques de la robotique industrielle. NVIDIA se positionne comme la colonne vertébrale de cette transition, en proposant des plateformes intégrées qui couvrent l'ensemble de la chaîne de développement robotique. La compétition dans ce secteur s'intensifie, avec des acteurs comme Boston Dynamics, Figure AI ou Agility Robotics qui cherchent eux aussi à industrialiser leurs solutions. La Semaine de la robotique sert ici de vitrine stratégique pour NVIDIA, qui entend s'imposer comme fournisseur incontournable d'infrastructure IA pour la prochaine génération de robots autonomes dans l'industrie, l'agriculture et l'énergie.

UELes plateformes de simulation et d'entraînement robotique de NVIDIA sont accessibles aux développeurs et industriels européens, mais cet événement est centré sur le marché américain sans impact direct sur la France/UE.

💬 Le vrai sujet ici, c'est pas la Semaine de la robotique, c'est NVIDIA qui s'impose discrètement comme le AWS de la robotique industrielle. La réduction du gap sim-to-real, c'est le verrou qui bloquait tout depuis des années, et là ils ont une vraie réponse technique. Reste à voir si les industriels européens vont jouer le jeu ou rester dépendants d'une stack américaine de plus.

HumanoïdesActu
1 source
Amazon rachète Fauna Robotics pour lancer son premier robot humanoïde domestique
184Frandroid 

Amazon rachète Fauna Robotics pour lancer son premier robot humanoïde domestique

Amazon a annoncé le rachat de Fauna Robotics, une startup spécialisée dans la robotique humanoïde, marquant une nouvelle étape dans la stratégie de l'entreprise pour conquérir le marché domestique. Cette acquisition permet à Amazon de disposer pour la première fois d'un robot capable d'effectuer des tâches physiques à domicile, comme ramasser des objets au sol — des jouets, par exemple. Les détails financiers de la transaction n'ont pas été divulgués, mais l'opération témoigne d'un investissement stratégique majeur dans la robotique grand public. Ce pivot représente une rupture nette avec Astro, le précédent robot d'Amazon lancé en 2021 : un simple écran monté sur roues, utile pour la surveillance ou les appels vidéo, mais incapable d'interagir physiquement avec son environnement. Un robot humanoïde domestique fonctionnel ouvrirait un marché considérable — des millions de foyers en quête d'assistance pour des tâches quotidiennes répétitives. Pour Amazon, c'est aussi une extension naturelle de l'écosystème Alexa vers la couche physique du foyer, transformant une enceinte connectée en assistant incarné. La course au robot domestique s'intensifie depuis plusieurs années. Figure AI, Physical Intelligence, Boston Dynamics ou encore Tesla avec Optimus investissent massivement ce segment. Amazon, fort de son expérience en robotique d'entrepôt avec ses milliers d'unités déployées dans ses centres logistiques, dispose d'une base technologique solide pour accélérer. L'acquisition de Fauna Robotics lui offre vraisemblablement une équipe spécialisée et des brevets ciblant spécifiquement les usages résidentiels, là où la manipulation d'objets dans des espaces non structurés reste le défi technique central.

HumanoïdesActu
1 source
Il y a 30 ans, les robots ont appris à marcher sans tomber
185IEEE Spectrum AI 

Il y a 30 ans, les robots ont appris à marcher sans tomber

En 1996, Honda a présenté le Prototype 2 (P2), le premier robot humanoïde autonome capable de marcher sans tomber. Mesurant 183 centimètres pour 210 kilogrammes, le P2 pouvait contrôler sa posture pour maintenir l'équilibre et actionner plusieurs articulations simultanément. Cette réalisation vient d'être reconnue comme un IEEE Milestone, avec une cérémonie de dédicace prévue le 28 avril au Honda Collection Hall, sur le circuit Mobility Resort Motegi au Japon. Derrière cette prouesse, quatre ingénieurs Honda : Kazuo Hirai, Masato Hirose, Yuji Haikawa et Toru Takenaka, qui avaient lancé le projet dès 1986 avec l'ambition de créer un robot domestique capable de monter des escaliers, contourner des obstacles et manipuler des outils. Cette avancée a redéfini les standards de la robotique mondiale. Avant le P2, aucun robot ne pouvait se déplacer de manière autonome sans perdre l'équilibre — le WABOT-1, construit en 1973 à l'Université Waseda de Tokyo, pouvait certes marcher et parler japonais, mais de façon instable et sans capacité à éviter les obstacles. L'équipe Honda a dû repenser entièrement la biomécanique humaine : analyser les mouvements du corps, adapter le nombre d'articulations (hanches, genoux, chevilles, épaules), et installer des moteurs DC avec des systèmes de réduction harmonique pour concilier compacité et couple élevé. Les premiers prototypes, comme le E0 — une simple paire de jambes — mettaient 15 secondes par pas. Chaque itération a permis de passer de la marche statique en ligne droite à une locomotion dynamique et autonome, ouvrant la voie aux robots humanoïdes modernes comme l'ASIMO ou ceux développés aujourd'hui par Boston Dynamics, Figure ou 1X. Quand C-3PO est apparu sur grand écran en 1977, l'idée d'un androïde marchant et interagissant comme un humain relevait de la science-fiction. Il aura fallu près de vingt ans à l'ingénierie réelle pour rattraper cette vision — et le P2 en a posé la première pierre concrète.

HumanoïdesOpinion
1 source
Amazon rachète Fauna, fabricant de robots « accessibles »
186AI Business 

Amazon rachète Fauna, fabricant de robots « accessibles »

Amazon a acquis Fauna, une startup spécialisée dans la robotique humanoïde grand public, dans une opération dont les détails financiers n'ont pas été divulgués. Cette transaction marque l'entrée officielle du géant technologique sur le marché en pleine expansion des robots humanoïdes destinés aux consommateurs. Ce rachat est significatif car il signale qu'Amazon ne se contente plus de la robotique industrielle et logistique — domaine où il est déjà très actif via ses entrepôts automatisés. En ciblant un fabricant positionné sur l'accessibilité et l'aspect « approchable » des robots, Amazon vise directement le marché domestique, potentiellement pour des usages à domicile ou en interaction directe avec les clients. La robotique humanoïde grand public connaît une effervescence sans précédent, avec des acteurs comme Figure, 1X ou Boston Dynamics se disputant ce nouveau terrain. Amazon rejoint ainsi une course technologique qui s'intensifie rapidement.

UEL'entrée d'Amazon sur le marché des robots humanoïdes grand public pourrait accélérer leur déploiement dans les entrepôts et foyers européens, où Amazon est déjà fortement implanté.

HumanoïdesActu
1 source
L'IA physique fait son entrée triomphale et tout le monde veut en profiter
187AI News 

L'IA physique fait son entrée triomphale et tout le monde veut en profiter

Le Physical AI, qui décrit les systèmes AI opérant dans le monde réel, gagne en popularité. Des entreprises occidentales comme Nvidia, Arm, Siemens et Google investissent massivement dans cette technologie, créant des plateformes et des semiconducteurs pour robots et véhicules intelligents. En Chine, l'accent est mis sur la construction matérielle de ces robots, avec des entreprises comme Boston Dynamics opérant directement dans des usines comme celle de Hyundai en Géorgie. Une enquête révèle que 58% des dirigeants d'entreprises mondiales utilisent déjà le Physical AI, et ce chiffre monte à 80% pour les plans futurs.

UEL'essor du Physical AI, avec des investissements majeurs de Nvidia, Arm, Siemens, Google, et Boston Dynamics, pose des opportunités et des défis pour les entreprises françaises et européennes dans les secteurs des robotiques et des véhicules intelligents, tout en se conformant aux exigences de la réglementation AI Act et du RGPD.

IA physiqueActu
1 source