Aller au contenu principal

Dossier Boston Dynamics — page 3

221 articles · page 3 sur 5

Boston Dynamics, pionnier de la locomotion : Atlas électrique, Spot patrouille industrielle et inspection, partenariats Hyundai et Toyota Research Institute.

ROBOTICS SUMMIT & EXPO 2026, Boston au cœur de la nouvelle économie robotique
101FrenchWeb BusinessOpinion

ROBOTICS SUMMIT & EXPO 2026, Boston au cœur de la nouvelle économie robotique

Le Robotics Summit & Expo 2026 se tiendra les 27 et 28 mai à Boston, confirmant la place de la ville comme capitale mondiale de la robotique. L'événement réunit cette année des acteurs issus de secteurs historiquement cloisonnés : robotique industrielle, recherche académique et automatisation logistique. Ce rassemblement annuel, devenu l'un des rendez-vous incontournables du secteur, illustre une transformation structurelle profonde de l'industrie, où les frontières entre ces univers distincts s'effacent progressivement au profit d'un écosystème intégré. Cette convergence a des implications concrètes pour les entreprises et les investisseurs. Un bras robotique industriel peut désormais intégrer des algorithmes issus de la recherche universitaire et être déployé dans un entrepôt logistique, des silos qui ne communiquaient pas il y a cinq ans. Pour les industriels, cela signifie des cycles d'innovation raccourcis et des opportunités de financement croisé entre acteurs publics, privés et académiques. Boston, avec son dense tissu de startups, de laboratoires universitaires (MIT, Harvard, Boston Dynamics) et de fonds spécialisés, cristallise mieux que nulle part ailleurs cette dynamique. La ville du Massachusetts s'est imposée comme référence mondiale en matière de robotique en grande partie grâce à l'écosystème né autour de Boston Dynamics et des programmes de recherche du MIT. Le Robotics Summit s'inscrit dans ce contexte de consolidation d'une filière en pleine maturité, portée par la demande croissante en automatisation dans l'industrie, la santé et la défense. Les éditions à venir devraient accentuer encore cette logique de convergence, à mesure que l'IA embarquée redéfinit ce qu'un robot peut faire de manière autonome.

1 source
QNX présentera des démonstrations pratiques et de nouvelles recherches au Robotics Summit
102The Robot Report 

QNX présentera des démonstrations pratiques et de nouvelles recherches au Robotics Summit

QNX, la division logicielle temps-réel de BlackBerry Ltd., sera présente au Robotics Summit & Expo les 27 et 28 mai 2025 à Boston, avec trois démonstrations interactives et le lancement d'une étude de marché inédite. Sur le stand, la société présentera un bras robotique d'entrée de gamme capable de détecter et imiter les gestes humains pour saisir des objets, en s'appuyant sur son programme QNX Everywhere qui offre un accès gratuit au logiciel pour le prototypage. Un second démonstrateur simule un environnement de "Digital Factory Automation" : un bras industriel piloté par QNX OS fusionne données lidar et vision pour détecter et éviter les obstacles en temps réel, avec réponse déterministe immédiate dès qu'un objet ou une personne entre dans son périmètre. Le troisième poste, tournant sur hardware Intel et NVIDIA, exploite la détection de pose par IA pour répliquer les mouvements d'un visiteur sur un avatar à l'écran, ciblant explicitement les plateformes utilisées dans les robots humanoïdes. En parallèle, QNX dévoilera son "Inside the Robot: Architecture Benchmark Report", une étude basée sur 1 000 développeurs en robotique à l'échelle mondiale, qui cartographie les freins à l'adoption, les écarts entre ambitions système et capacités réelles, et les tendances du secteur. John Wall, président de QNX, participera au keynote d'ouverture "Building the Next Era of Robot Autonomy" aux côtés de représentants d'Amazon Robotics, Locus Robotics et Universal Robots. La participation de QNX à ce salon illustre une tension structurelle du marché : les équipes d'IA embarquée savent entraîner des modèles, mais peinent à garantir le comportement déterministe requis dès lors que ces modèles pilotent des actionneurs physiques en environnement humain. QNX positionne son RTOS (Real-Time Operating System) comme la couche d'exécution qui traduit les décisions d'un VLA (Vision-Language-Action model) ou d'un module de pose detection en commandes moteur à latence bornée et prévisible. Le benchmark report est potentiellement plus significatif que les démos : avec 1 000 répondants développeurs, il devrait objectiver les vrais goulots d'étranglement du cycle sim-to-real, là où la majorité des communications sectorielles restent des annonces produit sans données comparatives. Pour un COO industriel ou un intégrateur, la question clé n'est pas "est-ce que le bras évite les obstacles en démo" mais "quel est le taux de défaillance certifiable en production", ce que l'étude prétend adresser. QNX existe depuis 1980 et son RTOS est historiquement déployé dans l'automobile (ADAS, infotainment), le médical et l'aérospatiale, des secteurs où la certification fonctionnelle (ISO 26262, IEC 61508) est non-négociable. L'entrée en robotique collaborative et humanoïde représente une extension logique à mesure que ces systèmes quittent les cages industrielles pour les entrepôts et espaces partagés. Sur ce terrain, QNX affronte Wind River (VxWorks), ROS 2 avec son middleware DDS pour le temps-réel souple, et des stacks propriétaires comme ceux qu'embarquent Boston Dynamics ou Figure AI. Le programme QNX Everywhere, qui ouvre l'accès gratuit pour le prototypage, est une réponse directe à l'adoption massive de ROS dans les labs universitaires et startups. Les suites concrètes à surveiller : la publication du benchmark report lors du salon, et d'éventuelles annonces de partenariats OEM avec des fabricants de bras collaboratifs ou de plateformes humanoïdes dans les mois suivants.

InfrastructureOpinion
1 source
Un robot quadrupède amélioré pour le projet de fin d'études
103Hackaday Robots Hacks 

Un robot quadrupède amélioré pour le projet de fin d'études

Aaed Musa, étudiant en génie mécanique, a présenté CARA 2.0 comme projet de fin d'études, aboutissement de plusieurs années de développement de chiens robotiques. Les exigences définies après des entretiens avec des clients potentiels étaient claires : prix cible autour de 1 000 dollars, poids inférieur à 9 kg (20 livres), et robustesse prouvée. Le robot reprend l'architecture de son prédécesseur CARA avec des transmissions par câble capstan, dont les éléments sont imprimés en résine et actionnés par des moteurs brushless de drone. Ces moteurs, initialement optimisés pour la vitesse plutôt que le couple, ont été rebobinés manuellement avec plus de fil, opération qui a permis de tripler leur couple. L'endurance a été validée par un test en cycle continu sur une seule articulation : plus de 1 000 heures de fonctionnement sans dégradation visible. En l'absence d'encodeurs absolus, chaque moteur effectue une mise à l'origine au démarrage en détectant la hausse de courant en fin de course mécanique, ce qui produit un mouvement d'étirement jugé naturel. CARA 2.0 est capable de marcher en ligne droite, de se déplacer latéralement, de pivoter sur place, de s'accroupir, de sauter et de maintenir son équilibre sur une surface inclinée. Le prix final atteint 1 450 dollars, légèrement au-dessus de l'objectif. Ce projet illustre qu'un quadrupède capable et durable reste accessible sans budget industriel, à condition d'accepter quelques compromis d'intégration. Le rebobinage manuel des moteurs pour adapter le rapport couple/vitesse est une solution peu documentée dans les projets open source de ce type ; elle démontre qu'un ajustement mécanique bas coût peut compenser l'absence de moteurs spécialisés. La détection de fin de course par surveillance du courant moteur, souvent utilisée en robotique industrielle, s'avère ici viable sur un système à faible coût. CARA 2.0 s'inscrit dans une lignée de projets personnels d'Aaed Musa, dont TOPS et la première version de CARA, tous deux basés sur des architectures capstan. Dans le segment des quadrupèdes accessibles, il se positionne face à des projets comme Stanford Doggo ou des dérivés open source du Boston Dynamics Spot, sans atteindre leurs performances dynamiques mais avec un coût de fabrication nettement inférieur. Aucun partenaire industriel ni déploiement commercial n'est mentionné à ce stade : CARA 2.0 reste un prototype académique, mais la méthodologie de validation client et les tests d'endurance suggèrent une trajectoire vers une éventuelle mise sur le marché.

RecherchePaper
1 source
LG fait équipe des robots humanoïdes et quadrupèdes pour automatiser ses entrepôts
104Interesting Engineering 

LG fait équipe des robots humanoïdes et quadrupèdes pour automatiser ses entrepôts

LG CNS, filiale IT du conglomérat sud-coréen LG, a présenté le 6 mai 2026 une démonstration de logistique multi-robots sur son campus Magok, dans l'ouest de Séoul. Quatre robots de fabricants différents ont exécuté une chaîne de manutention complète sans téléopération ni intervention humaine : un humanoïde bipède a saisi des colis sur un tapis roulant et les a transmis à un robot quadrupède à roues, qui les a acheminés jusqu'à un humanoïde sur plateforme roulante, lequel a positionné les boîtes sur des étagères situées à plus de deux mètres de hauteur. Le cycle complet, entre stations espacées de deux à trois mètres, s'est bouclé en environ 90 secondes. L'ensemble repose sur la plateforme Physical Works de LG CNS, articulée en deux briques : Physical Works Forge (entraînement par simulation et données vidéo) et Physical Works Baton (orchestration centralisée de flottes multi-marques). La plateforme prend en charge les humanoïdes bipèdes et sur roues, les quadrupèdes, les AMR et les AGV via une interface unifiée. LG Display a par ailleurs dévoilé en parallèle un écran P-OLED courbe de 7,2 pouces (technologie Tandem OLED troisième génération) destiné à l'affichage facial des robots humanoïdes. Ce qui rend la démonstration techniquement notable, c'est moins la performance individuelle de chaque robot que la couche logicielle de coordination inter-marques. La plateforme intègre un mécanisme de réaffectation dynamique des tâches : lors de la simulation d'un incident, le quadrupède a été basculé vers une mission de patrouille de sécurité, et un AMR de remplacement a pris le relais de transport sans interrompre le flux. LG CNS annonce que cette approche ramène les délais de déploiement de plusieurs mois à un à deux mois, avec des projections de gains de productivité supérieurs à 15 % et de réduction des coûts opérationnels allant jusqu'à 18 % dans des environnements de flottes mixtes d'environ 100 unités. Ces chiffres restent des projections internes, non encore validés en production à grande échelle, et le cycle de 90 secondes a été mesuré sur une distance très courte, ce qui en limite la portée comme indicateur de performance industrielle réelle. LG CNS positionne Physical Works dans un marché où la concurrence se structure autour de plateformes d'orchestration robotique plutôt que d'hardwares isolés. Aux États-Unis, Boston Dynamics propose Orbit pour la gestion de flottes Spot, tandis qu'Amazon et ses partenaires intègrent déjà des flottes mixtes AMR-humanoïdes (Digit d'Agility Robotics) dans leurs entrepôts. En Corée du Sud, Samsung et Hyundai (actionnaire de Boston Dynamics) sont également présents sur ce terrain. LG CNS a annoncé mener des projets pilotes avec 20 clients industriels et déployer la plateforme dans le cadre du projet Busan Smart City. Le groupe a aussi pris des participations dans des entreprises de contrôle humanoïde et de robot foundation models, sans en préciser les noms, ce qui suggère une stratégie d'intégration verticale en cours de consolidation.

IndustrielOpinion
1 source
Le robot humanoïde reçoit une tête avec écran OLED incurvé pour améliorer son efficacité
105Interesting Engineering 

Le robot humanoïde reçoit une tête avec écran OLED incurvé pour améliorer son efficacité

LG Display a présenté au SID Display Week 2026 de Los Angeles un écran P-OLED de 7,2 pouces conçu spécifiquement pour les robots humanoïdes, marquant la première démonstration publique d'un tel composant par l'entreprise coréenne. Le panneau repose sur la troisième génération de la plateforme Tandem OLED de LG, rebaptisée "Tandem OLED" pour les usages robotiques, et utilise un substrat plastique en polyimide plutôt que du verre, ce qui lui confère une flexibilité suffisante pour épouser les surfaces courbes d'un visage mécanique. L'interface affiche des informations fonctionnelles, niveau de batterie, météo, mode veille, calendrier, salutations, tandis que la majorité de l'écran reste éteinte lors des démonstrations, exploitant le principe OLED où chaque pixel s'éteint indépendamment. Résultat : la troisième génération Tandem réduit la consommation énergétique de 18 % par rapport à la génération précédente, limitant la dissipation thermique dans un châssis où les composants électroniques sont sensibles à la chaleur. Le panneau atteint 1 000 nits de luminosité, opère entre -30 °C et 85 °C, et est qualifié pour plus de 15 000 heures de fonctionnement, des spécifications empruntées à la filière OLED automobile du groupe. L'enjeu industriel de cette annonce va au-delà de l'esthétique : un écran facial n'est pas qu'un gadget de communication HRI (human-robot interaction), c'est un composant thermique, énergétique et mécanique à part entière. Pour les intégrateurs de robots de service, la capacité à afficher un statut opérationnel sans drain notable sur la batterie, tout en résistant aux contraintes thermiques d'un environnement industriel ou domestique, représente un critère de sélection concret. La flexibilité du substrat ouvre par ailleurs la voie à des designs de carrosserie moins contraints par la géométrie plane des dalles rigides. Il est toutefois utile de noter que LG Display parle pour l'instant d'un prototype présenté en salon : aucun engagement de production en série ni de fenêtre de disponibilité commerciale n'a été communiqué. Ce dévoilement s'inscrit dans la stratégie plus large de LG Electronics, qui a lancé le robot humanoïde LG CLOiD en janvier 2026 au CES de Las Vegas. CLOiD embarque deux bras articulés à 7 degrés de liberté chacun, cinq doigts à actionnement indépendant, une base mobile autonome et une tête-hub équipée de caméras, capteurs et d'une interface IA reposant sur des modèles VLM (Vision Language Model) et VLA (Vision Language Action), entraînés sur plusieurs dizaines de milliers d'heures de données de tâches domestiques. LG a également annoncé LG Actuator AXIUM, une plateforme d'actionneurs modulaires destinée aux robots de service et aux appareils électroménagers intelligents. Sur ce segment, LG se positionne en concurrent direct de Samsung Robotics, Boston Dynamics (Spot/Atlas chez Hyundai) et des acteurs spécialisés comme Enchanted Tools en France, qui développe Miroki pour des usages hospitaliers et de services.

HumanoïdesOpinion
1 source
Vers un contrôle adaptatif des robots humanoïdes par distillation multi-comportements et affinage renforcé
106arXiv cs.RO 

Vers un contrôle adaptatif des robots humanoïdes par distillation multi-comportements et affinage renforcé

Une équipe de chercheurs propose Adaptive Humanoid Control (AHC), un framework de contrôle locomoteur pour humanoïdes publié sur arXiv (2511.06371v3). Le problème de départ est structurel : les méthodes dominantes entraînent une politique séparée pour chaque compétence (se relever, marcher, courir, sauter), générant des contrôleurs rigides qui échouent dès que le terrain devient irrégulier. AHC y répond en deux phases : d'abord, plusieurs politiques primaires sont entraînées puis fusionnées par distillation multi-comportements en un contrôleur unique capable de commuter dynamiquement selon le contexte ; ensuite, un affinage par renforcement avec retours en ligne consolide l'adaptabilité sur terrains variés. Le système est validé en simulation et en conditions réelles sur le robot Unitree G1 d'Unitree Robotics. Pour les intégrateurs et les décideurs industriels, la promesse est concrète : un seul contrôleur couvrant l'ensemble des comportements locomoteurs réduit la complexité opérationnelle et supprime les transitions manuelles entre modes. Du côté de la recherche, le résultat le plus notable est que la distillation combinée à un fine-tuning par RL en ligne permet de réduire partiellement le sim-to-real gap sans ré-entraînement complet. La réserve à formuler : le papier ne publie pas de métriques quantitatives détaillées (taux de succès par terrain, fréquence de chute), ce qui rend difficile la comparaison objective avec d'autres approches. Le Unitree G1 (1,27 m, environ 35 kg, 16 000 dollars) est devenu depuis 2024 une plateforme de recherche de référence pour ce type de travaux. AHC s'inscrit dans une compétition internationale où Physical Intelligence (Pi-0), NVIDIA (GR00T N2), Figure (Helix) et Boston Dynamics cherchent tous à produire des politiques locomotrices généralisables hors environnement contrôlé. L'approche par distillation multi-politiques rappelle les travaux de curriculum learning menés à Berkeley et CMU, et l'affinage par RL en ligne emprunte aux méthodologies RLHF adaptées à la robotique physique. Aucun partenariat industriel ni calendrier de déploiement n'est annoncé ; le projet en est au stade de la démonstration académique.

RecherchePaper
1 source
Cadre de commande SDRE hors ligne en trois étapes pour reproduire le mouvement humain sur un robot bipède suspendu
107arXiv cs.RO 

Cadre de commande SDRE hors ligne en trois étapes pour reproduire le mouvement humain sur un robot bipède suspendu

Une équipe de recherche a publié sur arXiv (réf. 2506.04680) une stratégie de contrôle en trois étapes permettant à un robot bipède suspendu de reproduire fidèlement des mouvements humains capturés par mocap, avec une erreur quadratique moyenne (RMSE) inférieure à 3 degrés sur l'ensemble des articulations testées. Le pipeline repose d'abord sur un contrôleur SDRE (State-Dependent Riccati Equation) qui génère des trajectoires de couple optimales à partir du modèle dynamique du système bipède. Une deuxième étape produit des séquences de commandes en vitesse et accélération articulaires via une optimisation paramétrée intégrant les contraintes des actionneurs. La troisième étape applique un contrôleur hybride PID-LQR piloté par les données pour minimiser l'écart entre le mouvement cible et celui effectivement exécuté. Le dispositif expérimental est un robot bipède suspendu conçu spécifiquement pour l'évaluation d'exosquelettes anti-gravité, validé sur deux tâches : squat répétitif et marche. L'enjeu est direct pour l'industrie de l'exosquelette : les protocoles d'homologation impliquent aujourd'hui des sujets humains, ce qui introduit des risques de sécurité et complique la reproductibilité des tests. Remplacer le porteur par un robot calibré sur ses propres données de capture de mouvement ouvre la voie à des bancs d'essai systématiques, automatisés et comparables entre laboratoires. La précision annoncée, moins de 3° de RMSE moyen, est suffisante pour valider des algorithmes d'assistance articulaire sur des cycles locomoteurs complets, même si les auteurs ne précisent pas les conditions de charge ni la fréquence de cycle, deux paramètres déterminants pour juger de la transférabilité à des exosquelettes industriels ou médicaux. Le problème de la reproduction de mouvement humain sur robot hétérogène est un verrou classique en robotique de rééducation, aggravé par les différences de cinématique et d'actionnement entre humain et machine. L'approche SDRE, plus flexible que le LQR classique sur systèmes non-linéaires, n'est pas nouvelle mais son association à un raffinement PID-LQR guidé par les données constitue une contribution méthodologique incrémentale. En France, Wandercraft développe l'exosquelette Atalante pour la rééducation neurologique et fait face aux mêmes problématiques de test reproductible ; Pollen Robotics et Enchanted Tools opèrent sur des segments adjacents. Au niveau international, les équipes de Boston Dynamics, Agility Robotics et Apptronik publient sur des défis similaires en sim-to-real pour bipèdes. La prochaine étape logique pour les auteurs serait de valider le framework sur une plateforme non suspendue, condition nécessaire pour que l'approche soit utilisable en certification exosquelette en conditions réelles.

UEWandercraft (Atalante) et d'autres acteurs français de l'exosquelette sont directement concernés : ce framework de test robotisé et reproductible pourrait informer les futurs protocoles d'homologation d'exosquelettes médicaux et industriels en Europe, réduisant le recours à des sujets humains lors des certifications.

ExosquelettesPaper
1 source
BifrostUMI : des démonstrations sans robot pour la manipulation corps entier des humanoïdes
108arXiv cs.RO 

BifrostUMI : des démonstrations sans robot pour la manipulation corps entier des humanoïdes

Une équipe de chercheurs a publié le 6 mai 2026 BifrostUMI (arXiv:2605.03452), un framework de collecte de données sans robot dédié à l'entraînement de politiques visuomotrices full-body pour robots humanoïdes. Le principe : un opérateur humain équipé d'un casque VR léger réalise des démonstrations manuelles, capturées sous forme de trajectoires de points-clés (keypoints) épars, tandis que des caméras montées au niveau des poignets enregistrent simultanément les données visuelles. Ces données multimodales alimentent ensuite un réseau de politique haut niveau qui apprend à prédire les trajectoires futures conditionnées aux features visuelles observées. Un pipeline de retargeting traduit ensuite ces trajectoires sur la morphologie du robot cible, qui les exécute via un contrôleur corps entier (whole-body controller). L'efficacité du framework est validée sur deux scénarios expérimentaux distincts, sans que les auteurs ne précisent les benchmarks quantitatifs de performance (temps de cycle, taux de succès par tâche) dans le résumé disponible. L'enjeu est direct pour quiconque tente de scaler l'entraînement d'humanoïdes : la télé-opération robotique reste le goulot d'étranglement principal de la collecte de données. Elle exige un accès permanent au hardware, un opérateur qualifié, et génère un flux de données lent et coûteux. BifrostUMI découple complètement la phase de démonstration du robot physique, ce qui ouvre la possibilité de collecter des démonstrations en masse, avec n'importe quel opérateur humain, dans n'importe quel environnement, sans mobiliser la plateforme mécanique. C'est précisément le verrou que les acteurs du secteur cherchent à lever : Figure AI, Physical Intelligence (pi) ou Apptronik dépendent tous de pipelines de collecte lents et onéreux. Si le sim-to-real gap reste un défi ouvert, l'approche keypoint avec retargeting propose une voie alternative au full imitation learning vidéo, en s'appuyant sur une représentation compacte et plus robuste aux variations morphologiques entre démonstrateur et robot. BifrostUMI s'inscrit directement dans la lignée de l'Universal Manipulation Interface (UMI) développé par Stanford, qui avait montré qu'un graspeur instrumenté suffit à générer des démonstrations transférables. Les auteurs étendent ce paradigme au corps entier des humanoïdes, un saut de complexité significatif donné le nombre de degrés de liberté à contrôler. Sur le marché, Physical Intelligence mise sur Pi-0 et ses variantes pour des politiques générales entraînées sur données téléopérées, tandis que Boston Dynamics, Unitree et Fourier Intelligence investissent massivement en infrastructure de télé-op. BifrostUMI, en tant que preprint non encore évalué par les pairs, reste une preuve de concept académique, sans déploiement industriel annoncé ni timeline de commercialisation. Les prochaines étapes naturelles seraient une évaluation comparative sur des benchmarks standardisés (RoboSuite, DROID) et une validation sur plusieurs morphologies humanoïdes différentes.

IA physiqueOpinion
1 source
Contrôle de hauteur et planification optimale du couple pour le saut de robots bipèdes à roues
109arXiv cs.RO 

Contrôle de hauteur et planification optimale du couple pour le saut de robots bipèdes à roues

Des chercheurs présentent dans un preprint arXiv (2605.03302, mai 2026) deux méthodes combinées pour contrôler avec précision la hauteur de saut des robots bipèdes à roues. Le constat de départ est pratique : face à l'incertitude dynamique, ces plateformes sautent systématiquement plus haut que nécessaire pour garantir la sécurité, ce qui génère des pertes moteur évitables, des forces de contact au sol excessives et une surconsommation énergétique. La première contribution, le modèle W-JBD (Wheeled-Bipedal Jumping Dynamical), permet de cibler précisément une hauteur de saut, mais produit une consigne de couple en échelon incompatible avec les actionneurs réels. La seconde, BOTP (Bayesian Optimization for Torque Planning), optimise la trajectoire de couple sans nécessiter de modèle dynamique précis et converge en 40 itérations en moyenne. Validée sur le simulateur Webots, BOTP réduit l'erreur de hauteur de 82,3 % et la consommation énergétique de 26,9 % par rapport à la baseline, tout en produisant une courbe de couple continue. Ce résultat est pertinent pour les intégrateurs qui déploient des robots bipèdes à roues dans des environnements industriels ou logistiques : l'efficacité énergétique conditionne directement l'autonomie embarquée, et la reproductibilité du saut détermine la fiabilité du franchissement d'obstacles. Le fait que BOTP fonctionne sans modèle dynamique précis est un avantage opérationnel concret, car calibrer un modèle complet sur chaque variante de plateforme est coûteux. L'approche bayésienne converge rapidement, ce qui la rend adaptée à une validation sur robot réel avec un nombre limité d'essais physiques, un point critique pour réduire l'usure mécanique. Cela dit, les auteurs n'ont pas encore franchi le sim-to-real : l'ensemble des résultats reste en simulation, et le gap entre Webots et un vrai terrain reste à quantifier. Les robots bipèdes à roues constituent une classe en expansion : Unitree B2-W, l'ETH Zurich avec Ascento, ou encore les plateformes Handle/mobility de Boston Dynamics combinent la vitesse des roues avec la capacité de franchissement des pattes. Le planning de couple par optimisation bayésienne s'inscrit dans une tendance plus large qui vise à remplacer les contrôleurs MPC classiques, trop dépendants de modèles précis, par des méthodes d'optimisation légères adaptables à la production. Les auteurs annoncent comme prochaine étape la validation expérimentale sur robot physique en s'appuyant sur les trajectoires simulées pour réduire l'espace de recherche, ce qui devrait permettre de confirmer, ou non, la tenue des gains annoncés hors simulation.

UELes travaux pourraient intéresser les équipes de recherche européennes sur les robots bipèdes à roues (notamment ETH Zurich / Ascento), mais l'impact reste indirect, sans contribution ni déploiement européen identifié.

RecherchePaper
1 source
Préhension optimisée dans les robots à pattes : une approche par apprentissage profond pour la loco-manipulation
110arXiv cs.RO 

Préhension optimisée dans les robots à pattes : une approche par apprentissage profond pour la loco-manipulation

Des chercheurs ont publié sur arXiv (référence 2508.17466v3) un framework de deep learning destiné à améliorer les capacités de préhension des robots quadrupèdes équipés d'un bras manipulateur, une configuration connue sous le nom de loco-manipulation. L'approche repose sur une méthodologie sim-to-real développée dans l'environnement de simulation Genesis, où des milliers d'interactions synthétiques ont été générées sur des objets courants pour produire des cartes annotées pixel par pixel de qualité de préhension. Ces données ont servi à entraîner un réseau de neurones convolutif inspiré de l'architecture U-Net, qui fusionne en entrée des flux multi-modaux issus de caméras embarquées : images RGB, cartes de profondeur, masques de segmentation et cartes de normales de surface. En sortie, le modèle produit une heatmap identifiant le point de préhension optimal. Le système complet a été validé sur un vrai robot quadrupède, qui a exécuté de façon autonome la séquence complète : navigation vers l'objet cible, perception, prédiction de la pose de préhension, puis saisie effective. Le principal intérêt de ce travail est de montrer qu'un pipeline sim-to-real bien conçu peut substituer la collecte de données physiques, historiquement le goulet d'étranglement du développement en manipulation robotique. Pour les intégrateurs et décideurs industriels, cela suggère qu'il devient possible de déployer des capacités de manipulation sur robots mobiles sans investissement massif en démonstrations réelles. Cela dit, l'abstract ne fournit aucun taux de succès quantifié, aucune comparaison avec une baseline, et aucun détail sur le nombre d'objets testés ou la robustesse aux variations d'éclairage et de pose : des lacunes habituelles dans les preprints mais qui freinent l'évaluation sérieuse de la transférabilité industrielle. Ce travail s'inscrit dans un champ académique très actif autour des robots quadrupèdes à bras, popularisé par des plateformes comme l'ANYmal de ANYbotics (Suisse) ou le Spot d'Boston Dynamics, tous deux cibles régulières de recherches en loco-manipulation. L'environnement Genesis, relativement récent, se positionne comme alternative à Isaac Sim (NVIDIA) et MuJoCo pour la génération de données synthétiques. L'architecture U-Net, initialement conçue pour la segmentation médicale, est ici réutilisée pour un problème de régression spatiale, une transposition qui gagne du terrain en robotique de manipulation. Ce papier, en version 3 de révision, reste un travail de recherche en laboratoire : aucun déploiement opérationnel ni partenariat industriel n'est mentionné.

UEImpact indirect limité : ANYbotics (Suisse) est citée comme plateforme cible type, mais le travail est un preprint académique sans affiliation institutionnelle européenne identifiée ni déploiement opérationnel.

RecherchePaper
1 source
Tutor Intelligence crée une Data Factory pour entraîner ses robots par IA dans le monde réel
111Robotics Business Review 

Tutor Intelligence crée une Data Factory pour entraîner ses robots par IA dans le monde réel

Tutor Intelligence a inauguré DF1, sa "Data Factory" installée dans une ancienne manufacture de Watertown, Massachusetts : un parc de 100 robots semi-humanoïdes bimanaux baptisés Sonny, destinés à collecter des données réelles pour entraîner son modèle vision-langage-action (VLA) Ti0. Fondée en 2021 par Josh Gruenstein (CEO) et Alon Kosowsky-Sachs (CTO) issus du MIT-CSAIL, la startup revendique avoir constitué la plus grande infrastructure de ce type aux États-Unis. Elle a levé 34 millions de dollars en Série A en décembre 2025, puis tenu une journée portes ouvertes en avril 2026. Entre 45 et 50 téléopérateurs distants au Mexique et aux Philippines pilotent les robots par téleopération proprioceptive pour leur enseigner des tâches de picking, kitting et préparation de commandes e-commerce. En évaluant simultanément le même comportement sur 100 unités, la détection d'anomalies s'effectue 100 fois plus vite qu'en opération solo : un cas limite normalement visible après 8 heures d'opération sur un robot unique devient détectable en 5 minutes de fonctionnement de la flotte. Une méthode de prétraitement baptisée "velocity normalization" standardise les profils de démonstration entre téléopérateurs pour homogénéiser le corpus d'entraînement. L'enjeu central est de s'affranchir de la dépendance à la simulation, un pari sur la donnée réelle là où la majorité des acteurs humanoïdes s'appuient encore sur des environnements synthétiques pour réduire leurs coûts de collecte. La thèse de Gruenstein est directe : sans équivalent robotique de Wikipédia, le transfert d'intelligence à l'échelle industrielle passe nécessairement par des humains enseignant des machines en conditions réelles. DF1 est conçue comme le premier maillon d'un cycle vertueux, déploiements commerciaux, données à l'échelle, amélioration continue de Ti0. Pour les intégrateurs et décideurs industriels, cette approche ouvre une trajectoire vers un modèle généraliste capable d'absorber de nouvelles tâches sans reprogrammation lourde, précisément le verrou économique du marché actuel. Les performances annoncées restent toutefois auto-déclarées, sans validation indépendante. Tutor Intelligence a émergé du MIT-CSAIL en 2021, avant l'essor commercial des VLA. La startup est membre de la première promotion du Physical AI Fellowship, programme co-animé par AWS, NVIDIA et MassRobotics, qui lui fournit ressources de calcul cloud et expertise technique. Dans un paysage concurrentiel où Physical Intelligence (pi0), Figure, Apptronik et Boston Dynamics développent chacun leurs propres stacks d'entraînement, Tutor se différencie en contrôlant à la fois le hardware d'entraînement (Sonny), la plateforme de téleopération et le modèle VLA, sans dépendre d'une simulation propriétaire. L'objectif déclaré est de lancer le premier déploiement commercial humanoïde généraliste, en alimentant la boucle de données depuis la production réelle pour piloter les itérations suivantes. Les conditions commerciales, les performances comparatives de Ti0 et les éventuels clients pilotes n'ont pas encore été communiqués.

IA physiqueOpinion
1 source
Familiar : ce robot veut devenir le nouveau membre de votre famille
112Le Big Data 

Familiar : ce robot veut devenir le nouveau membre de votre famille

Colin Angle, cofondateur d'iRobot et père du Roomba, a dévoilé lors de la conférence Future of Everything un robot quadrupède baptisé Familiar, développé par sa nouvelle société Familiar Machines & Magic. Contrairement aux robots industriels qui dominent le marché, Familiar est conçu exclusivement pour vivre aux côtés des humains. Doté de 23 degrés de liberté, il ne communique ni par écran ni par interface classique, mais uniquement par le mouvement, le son et le toucher. Une enveloppe tactile, des caméras et des microphones lui permettent de percevoir son environnement en temps réel. Son intelligence artificielle multimodale, combinant vision, audio, langage et mémoire, fonctionne entièrement en local, sans dépendance au cloud, pour minimiser la latence et protéger la vie privée des utilisateurs. L'entreprise, jusqu'ici restée discrète, sort officiellement de sa phase de développement confidentielle. Ce robot de compagnie incarne une rupture de philosophie dans la robotique grand public. Là où les assistants vocaux et les interfaces numériques restent abstraits, Familiar mise sur la présence physique comme vecteur de lien : selon l'entreprise, les humains réagissent différemment à une machine tangible qu'à un écran. Le robot apprend progressivement de chaque interaction, construit une mémoire des comportements de ses utilisateurs et adapte ses réponses dans la durée, une forme de personnalisation continue que les appareils classiques ne peuvent offrir. Pour les personnes isolées, les enfants ou les personnes âgées, ce type de compagnon robotique pourrait représenter une alternative concrète aux solutions numériques actuelles, en répondant à des besoins émotionnels et relationnels que les machines industrielles n'adressent pas. Le marché de la robotique est aujourd'hui massivement orienté vers la manipulation, le tri et le transport en entrepôt, un secteur en croissance rapide où s'affrontent Boston Dynamics, Figure ou Agility Robotics. Familiar Machines & Magic choisit délibérément de s'en écarter pour explorer le segment du robot domestique de compagnie, encore peu structuré mais potentiellement immense. L'équipe s'appuie sur des profils issus de Disney Research, du MIT, d'Amazon et de Boston Dynamics, ce qui lui confère une crédibilité technique solide. Colin Angle a déjà prouvé avec iRobot qu'un robot simple pouvait séduire des millions de foyers ; il cherche désormais à franchir une étape supérieure en créant des machines qui « comprennent leur environnement » plutôt que d'exécuter des tâches figées. Aucune date de commercialisation ni de prix n'ont été annoncés : la présentation de Familiar reste pour l'instant une démonstration de vision, mais elle pose les jalons d'une nouvelle catégorie de produits qui pourrait redéfinir la place du robot dans l'espace domestique.

HumanoïdesOpinion
1 source
Commande par échantillonnage via le transport optimal à régularisation entropique
113arXiv cs.RO 

Commande par échantillonnage via le transport optimal à régularisation entropique

Une équipe de chercheurs a publié en mai 2026, sous la référence arXiv:2605.02147, un algorithme de contrôle prédictif par échantillonnage appelé OT-MPC. La méthode repose sur une formulation par transport optimal à régularisation entropique et cible les systèmes robotiques non linéaires nécessitant un contrôle temps réel : navigation autonome, manipulation d'objets et locomotion. Les mises à jour sont calculées en forme close via l'algorithme de Sinkhorn, sans aucun gradient, ce qui permet de traiter des dynamiques discontinues que les optimiseurs classiques basés sur la rétropropagation ne peuvent pas gérer. Les expériences rapportées montrent des taux de succès supérieurs aux méthodes de référence sur l'ensemble des trois catégories de tâches, bien que les chiffres absolus et les benchmarks précis ne soient pas détaillés dans l'abstract publié. L'intérêt pratique réside dans la résolution d'un problème structurel des deux algorithmes dominants du secteur, MPPI (Model Predictive Path Integral) et CEM (Cross-Entropy Method) : le comportement dit de "mode-averaging", où la mise à jour vers la moyenne pondérée des trajectoires candidates produit des solutions sous-optimales lorsque le paysage de coût est multimodal ou fortement non convexe. OT-MPC calcule un couplage optimal entre les séquences de contrôle candidates et les propositions à faible coût, coordonnant les mises à jour sur l'ensemble de l'échantillon pour préserver la couverture de l'espace des solutions tout en affinant chaque candidat vers ses voisins prometteurs. Pour un intégrateur ou un responsable technique, cela se traduit concrètement par une meilleure robustesse lors de transitions de contact, de saisies imprécises ou de mouvements en environnement encombré, sans surcoût de calcul différenciable. MPPI, développé initialement par Georgia Tech et popularisé par des frameworks comme Storm d'NVIDIA, et CEM, utilisé notamment dans les pipelines de planification de Boston Dynamics et de divers labos universitaires, sont aujourd'hui les deux références incontournables du contrôle par échantillonnage. Le transport optimal, formalisé dans un cadre robotique par des travaux antérieurs en imitation et en apprentissage de politiques, trouve ici une application directe au MPC sans nécessiter d'apprentissage préalable. OT-MPC reste à ce stade une contribution académique, sans déploiement annoncé ni partenariat industriel mentionné ; des validations sur hardware réel et des comparaisons de temps de cycle sur cibles embarquées constitueraient les prochaines étapes naturelles avant toute intégration produit.

RecherchePaper
1 source
Filtre de Kalman neuronal à mécanisme d'attention pour l'estimation d'état des robots à pattes
114arXiv cs.RO 

Filtre de Kalman neuronal à mécanisme d'attention pour l'estimation d'état des robots à pattes

Une équipe de chercheurs a publié sur arXiv (2601.18569v2) un filtre hybride baptisé AttenNKF (Attention-Based Neural-Augmented Kalman Filter), conçu pour améliorer l'estimation d'état sur les robots à pattes. Le glissement de pied constitue la principale source d'erreur dans ces systèmes : lorsqu'un pied glisse sur une surface, la mesure cinématique viole l'hypothèse de non-glissement et injecte un biais dans l'étape de mise à jour du filtre, dégradant l'estimation de position, vitesse et orientation. La solution augmente un InEKF (Invariant Extended Kalman Filter) avec un compensateur neuronal à mécanisme d'attention, qui infère l'erreur induite par le glissement en fonction de sa sévérité et l'applique en correction post-mise-à-jour sur l'état du filtre. Ce compensateur est entraîné dans un espace latent pour réduire la sensibilité aux échelles brutes des entrées et encourager des corrections structurées, tout en préservant la récursion mathématique de l'InEKF. L'enjeu est concret pour les équipes de locomotion et les intégrateurs industriels : l'estimation d'état est la brique fondamentale du contrôle d'un robot à pattes, et une erreur non corrigée se propage dans la boucle de contrôle jusqu'à provoquer des chutes ou des trajectoires aberrantes, notamment sur sols glissants, rampes ou surfaces variables en environnement d'usine. L'approche hybride filtres classiques plus réseau de neurones léger préserve les garanties mathématiques de l'InEKF tout en ajoutant une adaptabilité aux conditions non modélisées, sans reformuler entièrement le pipeline d'estimation. Les expériences montrent des performances supérieures aux estimateurs existants sous conditions de glissement, bien que les plateformes hardware testées ne soient pas précisées dans la version publiée, ce qui limite l'évaluation comparative. L'InEKF s'est imposé comme référence pour les robots à pattes grâce à des travaux de l'Université du Michigan vers 2019-2020 sur le bipède Cassie d'Agility Robotics, exploitant son invariance aux symétries de groupe de Lie. L'augmentation par réseaux neuronaux pour corriger les non-linéarités résiduelles est une direction active chez plusieurs groupes de recherche, dont ETH Zurich sur ANYmal, MIT et Carnegie Mellon. Les déploiements réels de Spot (Boston Dynamics), Digit (Agility Robotics) et Figure 02 font tous face au problème d'estimation sous glissement en conditions industrielles, ce qui donne à cette approche une pertinence directe pour le transfert sim-to-real vers des systèmes commerciaux. La prochaine étape naturelle sera une validation embarquée sous contraintes temps-réel sur des plateformes standardisées avec benchmarks publics.

RecherchePaper
1 source
Saisie mobile avec conscience de la visibilité en environnements dynamiques
115arXiv cs.RO 

Saisie mobile avec conscience de la visibilité en environnements dynamiques

Des chercheurs ont publié sur arXiv (arXiv:2605.02487) un système de préhension mobile baptisé « visibility-aware mobile grasping », conçu pour des robots à manipulateur opérant dans des environnements inconnus et dynamiques. L'architecture repose sur deux composants couplés : un planificateur bas niveau en corps entier (whole-body planner) associé à une perception active sensible à la vitesse, et un planificateur haut niveau hiérarchique fondé sur des arbres de comportement (behavior trees) qui génère des sous-objectifs adaptatifs. Les expériences ont été conduites sur 400 scénarios de simulation randomisés ainsi qu'en déploiement réel sur un robot mobile manipulateur Fetch. Le système atteint un taux de succès de 68,8 % dans des environnements statiques inconnus et de 58,0 % dans des environnements dynamiques, soit respectivement +22,8 et +18,0 points de pourcentage par rapport à l'approche de référence NAM (Non-prehensile Assisted Manipulation), avec une réduction mesurée des collisions. Le problème central que ce travail cherche à résoudre est un compromis fondamental en robotique mobile : un robot disposant d'un champ de vision limité doit arbitrer en permanence entre explorer pour réduire l'incertitude environnementale et progresser vers sa cible de saisie dans un espace de configuration à haute dimensionnalité. Les approches précédentes découpaient ces deux objectifs, ce qui rendait impossible la garantie de sécurité lorsque des obstacles dynamiques non observés intersectaient la trajectoire pendant la manipulation. En couplant la perception active à la planification de mouvement, et non en les traitant en séquence, les auteurs montrent qu'il est possible de maintenir une garantie de sécurité sans sacrifier les performances de saisie, un résultat pertinent pour les intégrateurs de systèmes pick-and-place en environnement non contrôlé. Ce travail s'inscrit dans un courant de recherche en pleine accélération autour des robots mobiles manipulateurs capables d'opérer hors de cellules balisées. Le Fetch, plateforme de recherche standard de Fetch Robotics (racheté par Zebra Technologies), est un choix délibérément accessible pour la reproductibilité. Les concurrents directs sur ce segment incluent les travaux de Mobile ALOHA (Stanford), de Spot Arm (Boston Dynamics) et de Hello Robot Stretch, ainsi que les systèmes AMR-à-bras d'Universal Robots et de Kassow Robots en Europe. La prochaine étape naturelle identifiée implicitement par les auteurs est l'extension à des scénarios avec plusieurs objets dynamiques simultanés et des environnements encore moins structurés, un écart entre performances en simulation et déploiement réel qui reste à confirmer sur des cycles industriels prolongés.

RecherchePaper
1 source
Locomotion quadrupède sensible à la dynamique via une tête de dynamique intrinsèque
116arXiv cs.RO 

Locomotion quadrupède sensible à la dynamique via une tête de dynamique intrinsèque

Des chercheurs ont déposé le 2 mai 2026 sur arXiv (identifiant 2605.01227) un cadre d'entraînement appelé "Intrinsic Dynamics Head" (ID Head) pour améliorer la locomotion des robots quadrupèdes sur terrains complexes. Le principe repose sur un entraînement simultané de deux composants : une politique de contrôle classique (Control Policy) et un module auxiliaire, l'ID Head, qui apprend à prédire le couple articulaire (torque) directement à partir de l'état du robot. Ce module génère une "dynamics reward", une récompense qui oriente la politique vers des comportements mécaniquement plus prévisibles. Les expériences de transfert sim-to-real sur robot physique affichent des gains mesurés de 16,8 % sur l'efficacité en couple (torque efficiency), 18,6 % sur le taux d'action (action rate), 12,8 % sur la puissance mécanique consommée, et une amélioration de 6,4 % de l'occupation sécurisée des couples (safe torque occupancy). L'intérêt de cette approche dépasse la performance brute : elle s'attaque directement au problème du "sim-to-real gap" dans la locomotion sur pattes, en rendant la politique explicitement consciente des dynamiques physiques sous-jacentes. Les politiques RL classiques produisent souvent des mouvements erratiques et des pics de couple qui usent prématurément les actionneurs et provoquent des arrêts de sécurité en déploiement réel. Pour un intégrateur ou un développeur de plateforme, des gains de 16 à 19 % sur ces métriques se traduisent concrètement par une durée de vie accrue des composants et une meilleure fiabilité opérationnelle. L'ID Head offre également un levier de réglage fin via ses coefficients d'entraînement, sans nécessiter de réentraînement complet de la politique. Ce travail s'inscrit dans le courant dominant de l'apprentissage par renforcement pour la locomotion sur pattes, porté depuis 2022 par des contributions majeures d'ETH Zurich autour d'ANYmal et par les politiques déployées sur Spot (Boston Dynamics) ou les plateformes Unitree (Go2, H1). Il répond aux critiques récurrentes sur le caractère mécaniquement sous-optimal des politiques RL pures, trop consommatrices de couples. À noter : il s'agit d'une prépublication académique sans partenariat industriel annoncé ni calendrier de déploiement. La validation sur des plateformes commerciales à plus grande échelle reste à démontrer.

RecherchePaper
1 source
Affection robotique : opportunités de l'IA haptique pour le toucher social des robots par approche multi-deep-learning
117arXiv cs.RO 

Affection robotique : opportunités de l'IA haptique pour le toucher social des robots par approche multi-deep-learning

Une équipe de chercheurs propose, dans un article de positionnement déposé sur arXiv en mai 2025 (arXiv:2605.02538), une architecture multi-modèles pour traiter le toucher social affectif en robotique. Le problème ciblé est précis : si la préhension et la dextérité robotiques ont significativement progressé grâce au retour haptique, les gestes affectifs - poignées de main, caresses rassurantes, contacts sociaux codifiés - restent non résolus en interaction humain-robot (HRI). Les auteurs proposent de décomposer le toucher affectif en sous-tâches spécialisées, chacune traitée par un modèle dédié, dans une architecture distribuée en boucle fermée inspirée de la neurobiologie. Ce cadre repose sur un protocole de partage d'état pair-à-pair et s'intègre dans un pipeline Sim-to-Real pour faciliter le transfert de l'entraînement en simulation vers les plateformes physiques. Il s'agit à ce stade d'un cadre conceptuel sans validation expérimentale publiée. Le verrou adressé est réel : un robot capable de saisir un objet de cinq kilos avec précision peut échouer à simuler une poignée de main naturelle. Les auteurs introduisent la notion de "vallée de l'étrange haptique" (haptic uncanny valley), par analogie avec son équivalent visuel - un toucher robotique "presque juste" génère un inconfort plus marqué qu'un contact clairement artificiel. L'approche multi-modèles distribuée, à l'opposé d'un mouvement moteur monolithique, permettrait un développement cumulatif et modulaire : les équipes spécialisées en haptique, en IA et en robotique peuvent contribuer indépendamment. Pour les intégrateurs de robots sociaux dans les secteurs médical, thérapeutique ou d'assistance à la personne, cela ouvre une voie vers des interactions physiques acceptables et objectivement mesurables. La robotique sociale s'est longtemps concentrée sur l'expressivité faciale et vocale - Pepper de SoftBank Robotics, Paro de l'AIST japonais - en laissant le toucher en marge. Les travaux sur le retour haptique dans la manipulation (MIT, Stanford) ont ouvert la voie, mais sans cibler spécifiquement la dimension affective. Les acteurs industriels aujourd'hui dominants - Figure AI avec Figure 02, Boston Dynamics, 1X Technologies - concentrent leurs efforts sur la locomotion et la manipulation de charges, pas sur la qualité sociale du contact physique. Ce papier de positionnement structure un agenda de recherche interdisciplinaire dont les prochaines étapes attendues seront l'implémentation et l'évaluation sur des robots compagnons ou d'assistance, segments où des acteurs européens comme Enchanted Tools (France) et des projets d'assistance à la dépendance commencent à émerger.

UELa proposition d'un cadre modulaire pour le toucher affectif représente une piste de R&D pertinente pour des acteurs français comme Enchanted Tools, actifs sur les robots d'assistance et de compagnie.

RecherchePaper
1 source
Boom des robots en Chine : entre effet d'annonce et réalité commerciale, la rentabilité tarde à venir
118SCMP Tech 

Boom des robots en Chine : entre effet d'annonce et réalité commerciale, la rentabilité tarde à venir

Dans le parc technologique de Zhangjiang, à Shanghai, Agibot exploite un site qui ressemble à la fois à un atelier industriel et à un studio de tournage : des robots aux morphologies variées exécutent des tâches répétitives sous supervision humaine, ramassant des objets, pliant du linge, manipulant des blocs de construction. Il ne s'agit pas d'une démonstration commerciale, mais d'une "data foundry", une usine de collecte de données pour l'intelligence incarnée. Ce modèle, qui mobilise des opérateurs humains pour guider mécaniquement les robots, reflète l'état réel du secteur : la Chine a lancé des dizaines de startups humanoïdes, mais la commercialisation effective accuse un retard marqué sur les annonces. L'écart entre la vitesse de déploiement médiatique et les revenus réels constitue le vrai enjeu structurel. Les investissements en capital-risque ont afflué massivement vers des entreprises comme Agibot, Unitree ou DEEP Robotics, mais les cas d'usage industriels à l'échelle restent rares. La collecte de données en environnement contrôlé est certes nécessaire pour entraîner des VLA (Vision-Language-Action models), mais elle ne génère pas encore de chiffre d'affaires récurrent ni de preuves solides de sim-to-real à grande échelle. Agibot, fondée en 2023 et déjà valorisée à plusieurs centaines de millions de dollars après plusieurs tours de financement, s'est positionnée comme l'un des candidats les plus sérieux à la commercialisation en Chine. Elle fait face à une concurrence dense : Unitree, avec ses robots quadrupèdes et humanoïdes à prix agressifs, et Figure ou Boston Dynamics à l'international. La prochaine étape critique pour l'ensemble du secteur sera de démontrer des déploiements hors environnement contrôlé, avec des métriques de temps de cycle et de fiabilité vérifiables par des tiers.

UELa montée en puissance des startups humanoïdes chinoises (Agibot, Unitree) représente une pression compétitive indirecte sur les fabricants de robots industriels européens, mais l'absence de déploiements à l'échelle vérifiables limite l'impact concret sur le marché EU à court terme.

Chine/AsieOpinion
1 source
Les robots chinois s'imposent dans la vie réelle, du nettoyage à la régulation du trafic
119SCMP Tech 

Les robots chinois s'imposent dans la vie réelle, du nettoyage à la régulation du trafic

En Chine, les robots humanoïdes et de service quittent les laboratoires pour s'intégrer dans des environnements opérationnels réels, un virage visible depuis le début de 2025. En mars, une offre de nettoyage a été lancée sur 58.com, plateforme chinoise d'annonces équivalente à LeBonCoin, associant un robot à un technicien humain pour des interventions à domicile. Au-delà du ménage, des robots sont désormais déployés pour réguler la circulation routière et intervenir dans des ateliers industriels à risque, là où l'exposition humaine est problématique, soudure, manipulation de produits chimiques, environnements haute température. Ce glissement du POC vers le déploiement opérationnel est structurellement significatif pour le secteur. Il signale que l'écart "demo-to-reality" commence à se résorber dans des cas d'usage à périmètre contrôlé : tâches répétitives, environnements semi-structurés, supervision humaine maintenue. Pour les intégrateurs B2B, cela ouvre une fenêtre concrète sur des ROI calculables, à condition que les cycles de maintenance et les taux d'erreur en conditions réelles soient publiés, ce que les annonces chinoises ne détaillent pas encore systématiquement. La Chine a inscrit la robotique incarnée comme priorité nationale dans son plan industriel 2025, avec des financements étatiques directs vers des acteurs comme Unitree, UBTECH et Fourier Intelligence. Face à Figure AI (Figure 02), Boston Dynamics (Atlas) et Tesla (Optimus Gen 2) côté américain, Pékin mise sur le déploiement massif et rapide plutôt que sur la performance en vitrine. Les prochaines étapes probables : extension des services 58.com à d'autres villes, et multiplication des pilotes industriels dans la logistique et la maintenance lourde.

UELa montée en puissance du déploiement opérationnel des robots chinois (Unitree, UBTECH, Fourier) accentue la pression concurrentielle indirecte sur les fabricants et intégrateurs européens, sans impact direct immédiat sur la France ou l'UE.

Chine/AsieOpinion
1 source
Des téléphones aux robots humanoïdes : la chaîne d'approvisionnement chinoise vise sa prochaine courbe de croissance
120SCMP Tech 

Des téléphones aux robots humanoïdes : la chaîne d'approvisionnement chinoise vise sa prochaine courbe de croissance

Le fabricant de smartphones Honor a créé la surprise en remportant le semi-marathon robotique de Pékin avec son humanoïde D1, devançant des acteurs établis comme Unitree, une première qui illustre un basculement structurel dans l'industrie : la chaîne d'approvisionnement chinoise des smartphones et de l'électronique grand public se reconvertit activement vers la robotique humanoïde. Des fournisseurs de composants jusqu'ici positionnés sur les marchés mobiles cherchent de nouveaux relais de croissance alors que la demande en téléphonie stagne, et transfèrent leur expertise en actionneurs, capteurs, batteries haute densité et électronique embarquée vers ce nouveau segment. L'enjeu est considérable pour l'industrie robotique mondiale. La Chine dispose d'un avantage structurel rare : une chaîne d'approvisionnement intégrée, des volumes de production éprouvés, et des coûts unitaires optimisés par des années de compétition féroce sur le marché mobile. Si ces capacités se déploient à grande échelle dans le secteur humanoïde, elles pourraient accélérer drastiquement le passage du prototype au produit commercialisable, un goulot d'étranglement qui freine encore la plupart des acteurs occidentaux. La victoire du D1 reste néanmoins une démonstration en conditions contrôlées, et les performances en environnement industriel réel constituent un autre niveau d'exigence. Ce pivot intervient alors que Pékin soutient activement l'humanoïde via des subventions et des appels d'offres publics. Unitree (G1, H1), UBTECH et le consortium Fourier Intelligence figurent parmi les acteurs domestiques établis que Honor et d'autres entrants issus du hardware grand public viennent désormais challenger. À l'international, Boston Dynamics, Figure AI et 1X restent les références, mais leur chaîne d'approvisionnement reste plus fragmentée. Les prochaines étapes pour Honor et les reconvertis du mobile seront de démontrer une fiabilité opérationnelle hors contexte de compétition.

UELe pivot de la chaîne d'approvisionnement chinoise vers l'humanoïde pourrait à terme intensifier la pression concurrentielle sur les fabricants européens de robots en comprimant les coûts unitaires de composants clés (actionneurs, batteries, électronique embarquée).

Chine/AsieOpinion
1 source
L'art de traverser le gouffre : quand une startup est-elle prête pour l'adoption par les entreprises ?
121Robotics Business Review 

L'art de traverser le gouffre : quand une startup est-elle prête pour l'adoption par les entreprises ?

Figure AI a annoncé avoir atteint un rythme de production d'un robot humanoïde par heure dans son usine BotQ, située dans la baie de San Francisco, soit une multiplication par 24 du débit en moins de 120 jours. La société revendique la livraison de plus de 350 unités de troisième génération (Figure 03), la fabrication de plus de 9 000 actionneurs et 500 packs batterie, avec 150 postes de travail en réseau et plus de 50 stations de contrôle qualité en ligne de production. En parallèle, Flex -- fabricant texan de composants électroniques -- a annoncé le déploiement de robots de Teradyne Robotics dans l'ensemble de ses sites de production mondiaux, en combinant les cobots Universal Robots (UR) et les AMR (robots mobiles autonomes) de Mobile Industrial Robot (MiR), deux filiales de Teradyne. Celle-ci a par ailleurs publié ses résultats du premier trimestre 2026 : 91 millions de dollars de chiffre d'affaires, quatrième trimestre consécutif de croissance après deux vagues de licenciements liées à des baisses de revenus en 2023 et 2024. Du côté des distinctions, l'association A3 a remis les prix Engelberger 2026 à Hiroshi Fujiwara, directeur exécutif de la Japan Robot Association (JARA) depuis 2009, et à Robert Little, cofondateur d'ATI Industrial Automation en 1989, qui a fait passer la société de 1 million à plus de 100 millions de dollars de revenus en devenant un acteur mondial des changeurs d'outils robotiques et des capteurs force/couple. Le chiffre de 24x de gain de débit chez Figure AI est spectaculaire, mais il convient de le lire avec précaution : la société communique sur des volumes de production, non sur des déploiements clients ou des contrats signés -- la distinction entre "fabriqué" et "opérationnel chez un client" reste floue dans ce communiqué. Cela dit, atteindre un robot par heure constitue un vrai seuil industriel si les données sont vérifiées, car la plupart des concurrents humanoïdes fonctionnent encore à l'échelle des dizaines d'unités annuelles. Le partenariat Flex/Teradyne est lui plus concret : Flex étant déjà fournisseur de composants pour UR, ce déploiement interne représente un signal fort de maturité opérationnelle des cobots et AMR dans des environnements de production à haute variabilité. C'est précisément la question que pose Neal Hansch, managing partner de Silicon Foundry et invité de l'épisode 242 du Robot Report Podcast : à quel moment un startup robotique est-il réellement prêt pour l'adoption entreprise, au-delà des démonstrations ? Figure AI a lancé ses premiers prototypes publics en 2023 et son Figure 02 en 2024, avec un financement total dépassant le milliard de dollars. Ses principaux concurrents sur le segment humanoïde incluent Tesla (Optimus Gen 3), Agility Robotics déployé chez Amazon, 1X Technologies, Apptronik, et Physical Intelligence (Pi-0, axé VLA), sans oublier Unitree et Fourier Intelligence côté asiatique. Teradyne, de son côté, cherche à repositionner UR et MiR comme infrastructure de "physical AI" face à la montée des solutions intégrées proposées par des acteurs comme Boston Dynamics (désormais sous Hyundai). La trajectoire de Robert Little chez ATI -- 40 ans d'expérience, croissance organique de 100x sur les end-effectors -- rappelle que les composants critiques de la chaîne robotique peuvent générer une valeur durable bien au-delà des intégrateurs systèmes.

UELe déploiement global de Universal Robots (UR) et MiR par Flex valide la maturité opérationnelle de ces deux marques danoises (filiales Teradyne) dans des environnements industriels à haute variabilité, renforçant leur position concurrentielle sur le marché européen des cobots et AMR face aux solutions intégrées émergentes.

HumanoïdesActu
1 source
C’est incroyable ! Figure AI passe à 55 robots en une semaine (et ça inquiète)
122Le Big Data 

C’est incroyable ! Figure AI passe à 55 robots en une semaine (et ça inquiète)

Figure AI vient de franchir un cap industriel majeur dans la robotique humanoïde. En seulement 120 jours, la startup californienne a multiplié par 24 sa cadence de production sur son site BotQ, passant d'un robot par jour à un robot par heure, soit 55 unités sur la semaine du 29 avril 2026. Cette montée en puissance repose sur une chaîne de fabrication entièrement repensée : plus de 150 postes de travail connectés, un logiciel maison pilotant chaque étape, plus de 50 points de contrôle qualité, et plus de 80 tests fonctionnels par unité avant validation. Les robots subissent des cycles intensifs de squats, de jogging et de mouvements répétés pour simuler les conditions réelles dès la sortie de ligne. Les résultats sont saisissants : un rendement supérieur à 80 % dès la première sortie, un taux de réussite de 99,3 % sur les batteries, et plus de 9 000 actionneurs déjà produits. Cette accélération industrielle dépasse la simple performance logistique. Chaque robot déployé devient un capteur de données qui alimente Helix, le système d'intelligence artificielle maison de Figure AI. Plus la flotte s'agrandit, plus l'IA apprend vite, et plus les robots gagnent en autonomie réelle. Les nouvelles capacités s'appuient sur une approche dite de contrôle corporel complet guidé par la perception : équipés de caméras embarquées, les robots reconstruisent une vision 3D de leur environnement et anticipent leurs mouvements, que ce soit pour monter des escaliers, traverser des surfaces irrégulières ou s'adapter à des situations imprévues sans assistance humaine. Figure AI a également développé une infrastructure de gestion de flotte incluant diagnostic en temps réel, maintenance à distance et mises à jour simultanées sur l'ensemble des unités déployées. Figure AI s'inscrit dans une course industrielle qui oppose désormais plusieurs géants et startups bien financées sur un même terrain : la capacité à produire des humanoïdes en série et à les rendre opérationnels à grande échelle. Tesla, avec son robot Optimus, et Boston Dynamics font figure de concurrents directs, mais la vraie bataille se joue aujourd'hui sur les données réelles accumulées en déploiement. Celui qui dispose de la plus grande flotte apprenante accumule un avantage compétitif difficile à rattraper. Figure AI, soutenue par des investisseurs majeurs de la Silicon Valley et des partenariats industriels actifs notamment avec BMW, mise sur cette logique de flywheel : plus de robots, plus de données, de meilleures décisions, encore plus de robots. La question qui reste ouverte est celle de la vitesse à laquelle ces humanoïdes vont effectivement remplacer de la main-d'oeuvre dans des environnements industriels réels, une perspective qui fascine autant qu'elle inquiète.

UELe partenariat actif de Figure AI avec BMW expose directement le tissu industriel européen à la robotique humanoïde en série, avec des implications concrètes sur l'emploi dans les usines du continent.

HumanoïdesOpinion
1 source
LeHome : un environnement de simulation pour la manipulation d'objets déformables en contexte domestique
123arXiv cs.RO 

LeHome : un environnement de simulation pour la manipulation d'objets déformables en contexte domestique

Des chercheurs ont publié LeHome, un environnement de simulation open-source consacré à la manipulation d'objets déformables en contexte domestique, accessible en préprint sur arXiv (2604.22363) et accompagné d'une page de démonstration. LeHome couvre un spectre large d'objets typiques des foyers, vêtements, aliments, textiles, avec une modélisation dynamique haute-fidélité destinée à reproduire les interactions complexes que les simulateurs existants peinent à rendre correctement. L'environnement supporte plusieurs morphologies robotiques et place explicitement les robots à faible coût au centre de sa conception, permettant d'évaluer des tâches ménagères de bout en bout sur du matériel à budget contraint. Le problème que tente de résoudre LeHome est structurant pour la robotique domestique : les objets déformables représentent une part massive des tâches quotidiennes (plier du linge, manipuler des aliments, ranger des textiles), mais leur simulation réaliste reste un angle mort des environnements dominants comme Isaac Sim, MuJoCo ou Gazebo. Sans simulation fiable de ces matériaux, le transfert sim-to-real, technique centrale dans l'entraînement des politiques modernes par renforcement ou imitation, produit des modèles qui s'effondrent dès qu'ils quittent les objets rigides. LeHome prétend combler ce fossé en proposant un banc de test scalable, ce qui pourrait accélérer le développement de politiques de manipulation généralistes pour l'environnement résidentiel. Le problème du "deformable gap" est documenté depuis plusieurs années : des projets comme DexDeform (Stanford), SoftGym ou PyBullet Cloth ont proposé des approches partielles, sans jamais couvrir l'ensemble des catégories domestiques avec un accent sur les plateformes accessibles. LeHome s'inscrit dans un mouvement plus large où des laboratoires ciblent explicitement le segment low-cost, Boston Dynamics, Figure ou 1X restant hors de portée de la plupart des équipes académiques. À ce stade, il s'agit d'un préprint sans validation industrielle ni déploiement annoncé : la crédibilité du projet dépendra de la capacité des auteurs à démontrer un transfert réel sur des plateformes concrètes telles que Low Cost Robot, SO-ARM ou des équivalents open-hardware.

UELes équipes académiques européennes travaillant sur la manipulation domestique pourraient adopter LeHome pour entraîner des politiques sur plateformes low-cost open-hardware, mais aucun impact institutionnel ou industriel direct n'est documenté à ce stade.

RecherchePaper
1 source
Retour sur 10 ans de robots à pattes avec Ghost Robotics au Robotics Summit
124Robotics Business Review 

Retour sur 10 ans de robots à pattes avec Ghost Robotics au Robotics Summit

Ghost Robotics, fondée en 2015 à Philadelphie, a franchi le cap des 1 000 robots livrés depuis sa création. Le CEO et co-fondateur Gavin Kenneally sera présent au Robotics Summit & Expo, les 27 et 28 mai 2026 à Boston, pour une conférence intitulée "From Prototype to Perimeter : 10 Years of Legged Robotics in Action". Il y présentera des retours d'expérience terrain sur ses déploiements de quadrupèdes, les évolutions logicielles récentes, et les perspectives à cinq ans pour la robotique à pattes dans les secteurs public et privé. Titulaire d'un doctorat en génie mécanique de l'Université de Pennsylvanie, co-concepteur mécanique du Vision 60 Q-UGV, Kenneally cumule six publications académiques et treize brevets. Fin 2025, la société a commercialisé un bras manipulateur monté en partie haute du Vision 60, un système décrit comme léger et précis, conçu pour étendre les capacités de manipulation de la plateforme sans dégrader sa mobilité. Ce seuil des 1 000 unités livrées distingue Ghost Robotics d'une grande partie de ses concurrents dans le segment des quadrupèdes opérationnels, où les annonces marketing précèdent souvent de loin les déploiements réels. Le Vision 60 est utilisé par le Département de la Défense américain (DoD) pour des missions de surveillance périmétrique et d'inspection en environnements contraints. L'ajout du bras manipulateur répond à une critique structurelle des plateformes à pattes : jusqu'ici cantonnées à la mobilité et à la perception, elles manquaient de capacité d'interaction physique avec leur environnement. Pour un intégrateur ou un COO industriel, c'est le signal d'un glissement vers des robots polyvalents capables à la fois de naviguer et d'agir, ce qui élargit significativement les cas d'usage au-delà de la surveillance pure. Il convient toutefois de noter que la société n'a pas publié de métriques détaillées sur les performances du bras en conditions opérationnelles. Ghost Robotics évolue dans un marché de plus en plus dense. Boston Dynamics, dont le Spot est disponible commercialement depuis 2020, reste la référence la plus visible, tandis qu'ANYbotics (ANYmal C, déployé dans le secteur énergétique offshore) et Unitree (B2, positionné sur les prix bas) exercent une pression croissante. Ghost Robotics se différencie par son ancrage défense-sécurité et une stack logicielle et électronique entièrement propriétaire, une exigence de souveraineté technologique souvent requise par le DoD. La conférence de Boston en mai 2026 sera l'occasion pour la société de consolider son image de fournisseur éprouvé, alors qu'une nouvelle génération de compétiteurs mise sur des architectures VLA (Vision-Language-Action) et le transfert sim-to-real pour rattraper leur retard terrain. Les suites annoncées portent sur l'élargissement des capacités du bras manipulateur et l'extension des déploiements vers les secteurs industriels privés.

💬 1 000 robots livrés, c'est le genre de chiffre qui change une conversation. Pendant que la plupart des acteurs du secteur accumulent les démos et les levées de fonds, Ghost a mis des machines en service auprès du DoD, ce qui vaut tous les benchmarks du monde. L'ajout du bras manipulateur est la bonne décision au bon moment, reste à voir si ça tient quand le terrain devient franchement hostile.

IndustrielOpinion
1 source
Deep Robotics déploie des robots quadrupèdes chez FAW pour l'inspection industrielle
125Pandaily 

Deep Robotics déploie des robots quadrupèdes chez FAW pour l'inspection industrielle

Deep Robotics a annoncé le 23 avril 2026 le déploiement de son robot quadrupède Jueying X30 sur un site industriel du groupe FAW (First Automobile Works), l'un des plus grands constructeurs automobiles chinois. Les robots assurent des missions d'inspection automatisée au sein du parc manufacturier, opérant en continu 24h/24 et 7j/7, y compris en conditions de faible luminosité grâce à un module multi-capteurs embarqué. Le Jueying X30 s'intègre aux systèmes de contrôle d'accès du site pour franchir les portes de manière autonome et navigue indifféremment en environnements intérieurs et extérieurs. Les données collectées et les alertes sont centralisées sur une plateforme dédiée pour le suivi et le reporting. L'annonce ne précise pas les métriques clés habituellement attendues dans ce type de déploiement : vitesse de déplacement, autonomie de la batterie, superficie couverte, nombre d'unités déployées ou résultats opérationnels mesurés. Le déploiement chez FAW constitue un signal intéressant pour le marché de l'inspection industrielle quadrupède, qui cherche depuis plusieurs années à dépasser le stade du pilote isolé. L'intégration native au contrôle d'accès et la capacité à opérer en extérieur comme en intérieur répondent à des contraintes réelles des sites manufacturiers à grande échelle, notamment la couverture incomplète des rondes humaines et les difficultés de recrutement pour les postes de nuit. Pour un intégrateur ou un responsable maintenance industrielle, ce type de déploiement valide le cas d'usage "inspection de site" sur un terrain exigeant, même si l'absence de KPI publics rend difficile l'évaluation de la maturité réelle de la solution versus une démonstration commerciale. Deep Robotics, fondée à Hangzhou, développe la gamme Jueying depuis plusieurs années et positionne le X30 comme sa référence pour l'inspection industrielle lourde. La concurrence sur ce segment est dense : Boston Dynamics Spot reste la référence mondiale la plus déployée, Unitree pousse ses modèles B2 sur les marchés sensibles au prix, et ANYbotics (Zurich) avec son ANYmal C est le principal acteur européen actif sur les sites Oil & Gas et manufacturiers. Ghost Robotics (Philadelphie) cible quant à lui les applications défense et sécurité. La prochaine étape pour Deep Robotics sera de publier des données de performance terrain pour crédibiliser ce déploiement au-delà du communiqué de presse.

UELe déploiement valide le cas d'usage inspection industrielle quadrupède sur lequel ANYbotics (Zurich) est le principal acteur européen, renforçant la pression concurrentielle des fabricants chinois sur ce segment.

Chine/AsieActu
1 source
État de l'art de la robotique à pattes en environnements non inertiels : passé, présent et futur
126arXiv cs.RO 

État de l'art de la robotique à pattes en environnements non inertiels : passé, présent et futur

Une équipe de chercheurs dépose en avril 2026 sur arXiv (référence 2604.20990) une revue de littérature consacrée à la locomotion des robots à pattes dans les environnements dits non inertiels, c'est-à-dire des surfaces en mouvement, en inclinaison ou en accélération. Le travail couvre trois grandes familles d'applications : les plateformes de transport terrestre (véhicules en déplacement), les plateformes maritimes (navires, offshore) et les contextes aérospatiaux. Les auteurs y passent en revue les méthodes existantes de modélisation, d'estimation d'état et de contrôle de la locomotion, en cartographiant leurs hypothèses et leurs limites respectives. Ils identifient ensuite quatre classes de problèmes non résolus : le couplage robot-environnement, l'observabilité du système en présence de perturbations persistantes, la robustesse des lois de contrôle face aux accélérations variables, et la validation expérimentale dans des conditions dynamiques représentatives. L'enjeu industriel est immédiat. L'écrasante majorité des robots à pattes aujourd'hui commercialisés, quadrupèdes comme l'ANYmal d'ANYbotics, le Spot de Boston Dynamics ou le Go2 d'Unitree, est conçue, calibrée et validée sur sol rigide et stationnaire. Les frameworks de contrôle classiques (MPC, whole-body control) posent explicitement l'hypothèse d'un point d'appui fixe. Dès qu'un navire tangue ou qu'un véhicule accélère, ces hypothèses s'effondrent, entraînant des comportements instables non récupérables sans adaptation du contrôleur en temps réel. Pour un COO qui envisage de déployer des robots d'inspection sur une plateforme pétrolière offshore, un cargo ou un aéronef, ce gap technique constitue aujourd'hui un frein concret à la commercialisation, indépendamment des progrès spectaculaires réalisés sur sol plat. Le domaine progresse depuis la fin des années 2010, porté par l'apprentissage par renforcement (sim-to-real) et l'estimation d'état à haute fréquence par IMU, mais les déploiements réels en environnement non inertiel demeurent rares et peu documentés dans la littérature. Aucun acteur industriel dominant ne s'est encore imposé sur ce segment, ni en Europe ni en Asie, ce qui laisse la fenêtre ouverte pour des laboratoires académiques et des intégrateurs spécialisés. Le survey identifie plusieurs directions prioritaires : les stratégies bio-inspirées (adaptation observée chez les animaux marins ou arboricoles), la co-conception robot-plateforme, et l'élaboration de protocoles de test standardisés simulant les perturbations dynamiques. Ce travail de cartographie a vocation à servir de référence pour orienter les prochains appels à projets et les roadmaps des fabricants de robots à pattes qui visent les marchés industriels les plus exigeants.

UEAucun déploiement européen documenté, mais le survey cartographie un segment non adressé (inspection offshore, navires, plateformes maritimes) où des laboratoires académiques et intégrateurs européens pourraient se positionner en l'absence de leader établi.

RecherchePaper
1 source
Système de navigation vision-langage incarné et déployable avec cognition hiérarchique et exploration contextuelle
127arXiv cs.RO 

Système de navigation vision-langage incarné et déployable avec cognition hiérarchique et exploration contextuelle

Une équipe de chercheurs a publié en avril 2026 sur arXiv (référence 2604.21363) un système de navigation embodied par vision et langage (VLN) conçu pour fonctionner en temps réel sur des plateformes robotiques embarquées aux ressources limitées. L'architecture repose sur trois modules asynchrones découplés : un module de perception temps-réel pour l'acquisition continue de l'environnement, un module d'intégration mémorielle pour l'agrégation spatiale et sémantique, et un module de raisonnement pour la prise de décision de haut niveau via un modèle vision-langage (VLM). Le coeur du système est un graphe de mémoire cognitive construit de façon incrémentale, décomposé en sous-graphes pour alimenter le VLM sans saturer la mémoire embarquée. Pour optimiser l'exploration, les auteurs reformulent le problème comme un Weighted Traveling Repairman Problem (WTRP) contextuel, qui minimise le temps d'attente pondéré des points de vue candidats. Les expériences portent à la fois sur des environnements simulés et sur des plateformes robotiques réelles, avec des résultats supérieurs aux approches VLN existantes en taux de succès et en efficacité de navigation. Ce travail s'attaque directement à une tension structurelle du domaine : les systèmes VLN les plus performants exigent des capacités de raisonnement qui restent typiquement hors de portée d'un matériel embarqué. Le découplage en modules asynchrones est une réponse architecturale concrète à cette contrainte, permettant de maintenir une boucle de perception à faible latence sans bloquer le raisonnement lourd. La démonstration sur hardware contraint réel, pas seulement en simulation, est le point de validation critique : elle réduit l'argument du sim-to-real gap qui frappe la majorité des publications académiques sur les VLA et VLN. Pour un intégrateur ou un décideur industriel, cela suggère que des robots capables de suivre des instructions en langage naturel dans des environnements non-structurés pourraient être déployés sans infrastructure GPU dédiée. La navigation embodied par vision et langage est un champ en pleine consolidation, porté par les progrès des VLM multimodaux (GPT-4o, LLaVA, InternVL) et par la disponibilité de benchmarks comme R2R ou REVERIE. La plupart des approches récentes sacrifient soit la généralisation soit la vitesse d'inférence pour tenir sur un robot réel. Ce papier s'inscrit dans un courant de recherche qui cherche à rendre ces systèmes embarquables sans fine-tuning massif, une direction que suivent également des équipes comme celles de CMU, ETH Zurich ou du LAAS-CNRS côté européen. Les prochaines étapes naturelles seraient une évaluation sur des benchmarks standardisés publics et une intégration dans des plateformes commerciales comme Boston Dynamics Spot ou des AMR industriels, mais ces éléments ne sont pas annoncés dans l'abstract.

UEDes équipes européennes comme ETH Zurich et le LAAS-CNRS travaillent sur des directions similaires, mais ce papier n'implique pas directement d'acteurs ou de déploiements en France/UE.

IA physiqueOpinion
1 source
Apprendre l'apesanteur : imiter des mouvements non auto-stabilisants sur un robot humanoïde
128arXiv cs.RO 

Apprendre l'apesanteur : imiter des mouvements non auto-stabilisants sur un robot humanoïde

Une équipe de chercheurs propose dans un preprint arXiv (référence 2604.21351, avril 2026) une méthode baptisée Weightlessness Mechanism (WM), conçue pour permettre aux robots humanoïdes d'exécuter des mouvements dits non-autostabilisants (NSS, Non-Self-Stabilizing). Ces mouvements englobent des actions aussi banales que s'asseoir sur une chaise, s'allonger sur un lit ou s'appuyer contre un mur : contrairement à la locomotion bipède classique, le robot ne peut maintenir sa stabilité sans interagir physiquement avec l'environnement. Les expériences ont été menées en simulation et sur le robot humanoïde Unitree G1, sur trois tâches représentatives : s'asseoir sur des chaises de hauteurs variables, s'allonger sur des lits à différentes inclinaisons, et s'appuyer contre des murs via l'épaule ou le coude. La méthode est entraînée sur des démonstrations en action unique, sans fine-tuning spécifique à chaque tâche. L'apport technique central s'appuie sur une observation biomécanique : lors de mouvements NSS, les humains relâchent sélectivement certaines articulations pour laisser le contact passif avec l'environnement assurer la stabilité, un état que les auteurs qualifient de "weightless". Le WM formalise ce mécanisme en déterminant dynamiquement quelles articulations relâcher et dans quelle mesure, complété par une stratégie d'auto-étiquetage automatique de ces états dans les données d'entraînement. Pour les intégrateurs industriels qui déploient des humanoïdes dans des environnements réels, ce verrou est significatif : les pipelines actuels d'imitation learning combiné au reinforcement learning imposent généralement un suivi rigide de trajectoire sans modéliser les interactions physiques avec les surfaces, ce qui les rend inopérants dès que le robot doit s'appuyer sur quelque chose. Le contexte est celui d'un secteur en pleine accélération : Figure AI avec le Figure 03, Agility Robotics avec Digit, Boston Dynamics avec Atlas et 1X Technologies poussent tous leurs humanoïdes vers des déploiements en entrepôt ou en usine, mais les scénarios de contact-riche restent largement non résolus. Le Unitree G1, plateforme commerciale accessible, s'impose progressivement comme banc de test académique standard, ce qui accélère la reproductibilité des résultats. Il faut néanmoins souligner que ce travail est au stade de preprint non évalué par les pairs, et que les séquences vidéo accompagnant ce type de publication sont souvent sélectionnées favorablement : la robustesse réelle en conditions non supervisées reste à démontrer. Les suites naturelles seraient une intégration dans des politiques généralisées comme GR00T N2 de NVIDIA ou pi0 de Physical Intelligence, et une évaluation sur des scènes hors distribution.

IA physiquePaper
1 source
X2-N : robot humanoïde transformable hybride roues-jambes à double mode de locomotion et manipulation
129arXiv cs.RO 

X2-N : robot humanoïde transformable hybride roues-jambes à double mode de locomotion et manipulation

Des chercheurs ont publié sur arXiv (référence 2604.21541v1, avril 2026) les résultats de développement du X2-N, un robot à locomotion hybride roues-jambes capable de se transformer entre une configuration humanoïde bipède et une configuration à roues, par reconfiguration articulaire à la volée. Contrairement aux plateformes roues-jambes existantes qui utilisent des roues fixes en guise de pieds et des hanches à degrés de liberté limités, le X2-N dispose d'un grand nombre de degrés de liberté (le nombre exact n'est pas précisé dans l'abstract) et d'un buste complet avec deux bras manipulateurs. Le système de contrôle repose sur un framework de contrôle corps entier basé sur l'apprentissage par renforcement (RL), unifiant locomotion hybride, transformation morphologique et manipulation dans un même pipeline. Les validations expérimentales couvrent des tâches de locomotion dynamique de type skating, de montée d'escaliers et de livraison de colis. Le point central de cette contribution est l'adresse du double goulot d'étranglement qui freine les robots roues-jambes actuels : la rigidité de la configuration au sol, qui dégrade la stabilité en mode biped, et l'absence de membres supérieurs, qui interdit toute manipulation. En intégrant ces deux capacités dans un seul châssis transformable piloté par un unique contrôleur RL, les auteurs montrent qu'il est possible d'obtenir une adaptabilité terrain élevée sans sacrifier les capacités de manipulation. Pour un COO industriel ou un intégrateur logistique, c'est la promesse d'un seul robot capable d'alterner entre déplacement rapide en mode roues sur sol continu et navigation en mode jambes sur terrains discontinus, tout en manipulant des charges. Il convient néanmoins de souligner que les validations présentées restent des démonstrations en laboratoire : aucun déploiement industriel réel ni chiffres de cycle time en conditions production ne sont fournis. Le segment des robots roues-jambes est occupé notamment par Unitree (variantes B2W et H1 avec extensions roues), Boston Dynamics (Handle, orienté logistique mais sans bras polyvalents), et diverses startups issues de laboratoires universitaires asiatiques et américains. Le X2-N se positionne sur la convergence humanoïde-AMR, un créneau en compétition directe avec les approches tout-biped des acteurs comme Figure, Agility Robotics ou Fourier Intelligence, qui misent sur l'universalité de la forme humaine plutôt que sur la flexibilité morphologique. La prochaine étape logique pour cette recherche serait une validation hors laboratoire et la publication de métriques de performance comparables à celles des plateformes commerciales, pour confirmer que les gains en efficacité de locomotion compensent la complexité mécanique additionnelle.

HumanoïdesPaper
1 source
Vidéo : Ce robot humilie les meilleurs joueurs de ping-pong au monde
130Le Big Data 

Vidéo : Ce robot humilie les meilleurs joueurs de ping-pong au monde

Sony AI a dévoilé mercredi dans la revue scientifique Nature les résultats d'Ace, un robot de tennis de table développé à Zurich. Sur cinq matchs disputés en règles officielles contre des joueurs d'élite, Ace en a remporté trois. Face à des professionnels confirmés, le bilan est plus nuancé : deux défaites et une seule manche gagnée sur sept rencontres. Le système repose sur un bras articulé à huit axes monté sur une base mobile, équipé de caméras multi-angles qui analysent position et rotation de la balle en temps réel. En ciblant le logo imprimé sur la balle, Ace estime l'effet en quelques millisecondes. L'entraînement a nécessité environ 3 000 heures de simulation, et certains gestes, notamment le service, ont été modélisés directement à partir de joueurs expérimentés. Peter Dürr, responsable du projet chez Sony AI, indique que le robot a depuis progressé : « Nous avons affronté des adversaires plus forts et nous les avons battus. » Le tennis de table est depuis longtemps considéré comme l'un des défis les plus ardus pour la robotique : la vitesse des échanges, la diversité des effets et la précision millimétrée requise en font un banc d'essai exigeant pour les systèmes autonomes. Ace a démontré une maîtrise solide de ces contraintes, gérant des situations complexes comme des balles frôlant le filet, et réalisant un coup rétro rapide qu'un ancien joueur olympique, Kinjiro Nakamura, jugeait jusqu'alors impossible à produire mécaniquement. Ce dernier estime désormais que les humains pourraient s'inspirer de cette technique. Le robot bénéficie par ailleurs d'un avantage psychologique non négligeable : sans regard ni langage corporel, ses intentions sont illisibles pour l'adversaire, ce qui perturbe les stratégies habituelles de lecture du jeu. Cette percée s'inscrit dans une compétition mondiale accélérée autour de la robotique généraliste à haute réactivité, où Sony AI se positionne comme un acteur sérieux aux côtés de Google DeepMind, Boston Dynamics ou Figure AI. Jusqu'ici, les tentatives de robots pongistes restaient cantonnées à des démonstrations contrôlées, loin des conditions de match réel. Publier dans Nature avec des résultats contre de vrais compétiteurs marque un saut qualitatif. Les limites actuelles d'Ace, difficultés sur les balles lentes et peu liftées, indiquent les axes de travail restants, mais la trajectoire est claire : chaque version repousse davantage le niveau humain de référence, et les chercheurs laissent entendre que la parité avec les meilleurs joueurs mondiaux n'est plus une question de principe, mais de temps.

HumanoïdesOpinion
1 source
Vidéo : SamuRoid, le robot humanoïde chinois compact aux interactions plus intelligentes
131Interesting Engineering 

Vidéo : SamuRoid, le robot humanoïde chinois compact aux interactions plus intelligentes

SamuRoid, un robot humanoïde compact développé par la société chinoise XiaoR Geek Technology basée à Shenzhen, vient d'être présenté comme une nouvelle plateforme d'IA embarquée accessible aux chercheurs et développeurs. Mesurant 390 mm de hauteur pour 2,3 kg, il embarque 22 servomoteurs haute-couple de la série XRS couvrant l'intégralité du corps, une caméra 1080p grand angle sur une nacelle 2 axes, un microphone USB intégré, ainsi qu'une connectivité Wi-Fi 5 double bande et Bluetooth 5.0. Son cerveau est un Raspberry Pi 4 Model B disponible en 4 ou 8 Go de RAM. La batterie 12V 3000 mAh lui offre environ une heure d'autonomie. La version Professional Edition est proposée à environ 1 565 dollars, tandis que des éditions Developer et Flagship plus complètes sont actuellement en rupture de stock. Ce qui distingue SamuRoid de ses prédécesseurs, c'est son niveau d'intégration logicielle et ses capacités multimodales. Le robot fonctionne sous ROS (Robot Operating System), avec un code source ouvert compatible C++ et Python, et intègre OpenCV pour la reconnaissance faciale, le suivi de couleurs et la détection de QR codes. Surtout, il se connecte à des grands modèles de langage comme DeepSeek et Doubao, ce qui lui permet de comprendre des instructions en langage naturel plutôt que des commandes rigides. Si un utilisateur dit qu'il est fatigué et veut s'amuser, le système interprète l'intention et déclenche une action appropriée, comme une chorégraphie, tout en fournissant un retour vocal. Ce saut qualitatif positionne SamuRoid comme un outil de recherche crédible pour explorer l'interaction homme-machine de nouvelle génération, à un prix bien en dessous des plateformes industrielles. L'essor de robots humanoïdes compacts et ouverts reflète une tendance de fond dans l'industrie robotique mondiale : rendre l'IA incarnée accessible hors des grands laboratoires. Jusqu'ici, ce segment était dominé par des plateformes coûteuses ou des jouets aux capacités limitées. XiaoR Geek tente de combler cet écart en proposant une architecture ouverte compatible avec les workflows ROS standard, adoptés par la grande majorité des chercheurs en robotique. La Chine multiplie ces initiatives, portée par un écosystème de fabrication performant et des modèles de langage locaux comme DeepSeek qui rivalisent désormais avec les offres occidentales. SamuRoid arrive dans un contexte où plusieurs acteurs, d'Agility Robotics à Figure AI en passant par Boston Dynamics, cherchent à démocratiser l'humanoïde. La question ouverte reste celle de la durée d'autonomie, une heure restant un frein réel pour des usages continus, et de la robustesse en dehors des environnements contrôlés.

HumanoïdesActu
1 source
Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles
132arXiv cs.RO 

Système ouvert de bout en bout pour la navigation autonome de robots en conditions réelles

Des chercheurs ont présenté un système embarqué léger et à architecture ouverte permettant à un robot quadrupède de naviguer de manière autonome dans des environnements réels, inconnus et dynamiques, sans apprentissage préalable spécifique à ces lieux. Déployé sur un robot Unitree Go2 à quatre pattes, le système atteint un taux de réussite supérieur à 88 % dans plusieurs environnements intérieurs testés. Il repose sur ROS2 comme middleware de communication entre les différents composants embarqués, et accepte des instructions de navigation formulées en langage naturel. Les capteurs du robot alimentent en continu un système de localisation et de cartographie, qui construit des graphes de scènes hiérarchiques enrichis de sémantique ouverte, c'est-à-dire capables d'identifier des objets sans liste prédéfinie. Un planificateur basé sur un grand modèle de langage (LLM) exploite ces graphes pour générer et adapter des plans d'action en temps réel, au fur et à mesure que la scène évolue. Ce résultat est significatif car la navigation autonome en environnement réel reste un problème difficile que la majorité des systèmes actuels ne résolvent qu'en simulation, là où les conditions sont contrôlées et les incertitudes absentes. Le fait qu'un robot puisse interpréter une consigne en langue naturelle, construire une représentation sémantique de son environnement à la volée et s'y adapter dynamiquement ouvre la voie à des déploiements pratiques dans des bâtiments industriels, des entrepôts, des hôpitaux ou des espaces publics, sans configuration manuelle préalable. La robotique autonome bute depuis des années sur quatre obstacles fondamentaux : la perception imparfaite, l'observabilité partielle, l'incertitude de localisation et les contraintes de sécurité. L'intégration des LLM comme couche de planification symbolique, combinée à une cartographie sémantique continue, représente une approche émergente qui capitalise sur les progrès récents en traitement du langage naturel et en vision par ordinateur. Ce travail s'inscrit dans une tendance plus large visant à doter les robots de capacités de raisonnement général plutôt que de comportements pré-programmés, un chantier sur lequel rivalisent des équipes académiques et des acteurs industriels comme Boston Dynamics, Figure AI ou Agility Robotics.

HumanoïdesActu
1 source
Apprentissage du contrôle multimodal du corps entier pour robots humanoïdes réels
133arXiv cs.RO 

Apprentissage du contrôle multimodal du corps entier pour robots humanoïdes réels

Des chercheurs en robotique ont publié sur arXiv une avancée notable dans le contrôle des robots humanoïdes, présentant le Masked Humanoid Controller (MHC), un système d'apprentissage automatique capable de piloter l'ensemble du corps d'un robot à partir d'une interface unifiée. Concrètement, le MHC reçoit des commandes sous forme de trajectoires partiellement spécifiées, seules certaines parties du corps sont ciblées à la fois, et les exécute en maintenant l'équilibre général de la machine. Le système a été validé sur le robot humanoïde réel Digit V3 du fabricant Agility Robotics, démontrant que les comportements appris en simulation se transfèrent effectivement au monde physique. Ce qui distingue le MHC, c'est sa capacité à traiter des entrées radicalement différentes avec un seul contrôleur : séquences de pas planifiées par un algorithme d'optimisation, clips de capture de mouvement humain, vidéos retransposées sur le robot, ou signaux de téléopération en temps réel via joystick. Jusqu'ici, chacun de ces modes nécessitait généralement un pipeline dédié. Cette unification simplifie considérablement l'architecture des systèmes robotiques et ouvre la voie à des robots capables de recevoir des instructions hybrides, par exemple suivre une trajectoire planifiée tout en imitant simultanément des gestes captés sur une vidéo. Le problème du contrôle corps entier est l'un des verrous majeurs de la robotique humanoïde commerciale, alors que des acteurs comme Boston Dynamics, Figure AI ou Tesla Optimus investissent massivement dans ce secteur. La tendance actuelle consiste à entraîner des contrôleurs en simulation, moins coûteux et plus sûr, puis à les transférer sur du matériel réel, une approche que le MHC illustre avec le Digit V3. L'utilisation d'un curriculum d'entraînement couvrant l'ensemble des modalités d'entrée est la clé qui permet cette polyvalence sans sacrifier la robustesse. Les prochaines étapes logiques concerneront l'intégration de modèles de langage comme interface de haut niveau, permettant à terme de donner des instructions verbales à un humanoïde qui les traduirait en commandes motrices complexes.

HumanoïdesActu
1 source
GenerativeMPC : contrôle prédictif corps entier guidé par VLM-RAG, impédance virtuelle et manipulation mobile bimanuelle
134arXiv cs.RO 

GenerativeMPC : contrôle prédictif corps entier guidé par VLM-RAG, impédance virtuelle et manipulation mobile bimanuelle

Des chercheurs ont soumis sur arXiv (arXiv:2604.19522) un framework baptisé GenerativeMPC, destiné aux robots manipulateurs mobiles bimanaux. Le système articule un modèle de vision-langage couplé à une génération augmentée par récupération (VLM-RAG) avec un contrôleur prédictif sur le corps entier (Whole-Body MPC). Concrètement, le module VLM-RAG analyse la scène en temps réel, visuellement et en langage naturel, puis génère des contraintes de contrôle numériques directement exploitables: limites de vitesse dynamiques et marges de sécurité injectées dans le MPC. Parallèlement, il module les gains de raideur et d'amortissement virtuels d'un contrôleur impédance-admittance unifié pour adapter la compliance du robot au contexte. Les expériences menées dans les simulateurs MuJoCo et IsaacSim, puis sur une plateforme physique bimanuale, font état d'une réduction de vitesse de 60% à proximité des humains. Le système s'appuie sur une base de données vectorielle alimentée par l'expérience passée, ce qui permet d'ancrer les paramètres de contrôle sans ré-entraînement du modèle. L'enjeu architectural est significatif pour les intégrateurs et les décideurs industriels. Les approches end-to-end de type VLA, comme Pi-0 (Physical Intelligence) ou GR00T N2 (NVIDIA), délèguent entièrement la traduction sémantique-physique au réseau neuronal, rendant les garanties de sécurité difficiles à certifier formellement. GenerativeMPC propose une architecture hybride explicite: le grand modèle raisonne sur le contexte (présence humaine, nature de la tâche) et produit des paramètres numériques interprétables qui alimentent un MPC classique au comportement auditable et déterministe. Pour les secteurs à forte contrainte réglementaire, c'est un argument de poids. La réduction de 60% reste cependant une métrique à contextualiser: le papier ne précise pas la vitesse de référence initiale ni les conditions exactes des essais physiques, un bémol courant dans les publications de ce type. La manipulation mobile bimanuale est l'un des problèmes ouverts les plus exigeants de la robotique collaborative, coincé entre contrôleurs classiques contextuellement aveugles et modèles end-to-end difficilement certifiables. L'utilisation du RAG pour paramétrer des contrôleurs physiques est une direction de recherche émergente, distincte de l'apprentissage par renforcement. Dans l'écosystème concurrent, Figure AI (Figure 03), Boston Dynamics (Atlas) et 1X Technologies explorent des architectures hybrides pour des tâches bimanales. En Europe, Enchanted Tools (France) et des laboratoires comme le LAAS-CNRS avancent sur des architectures de contrôle sûres pour la collaboration humain-robot. GenerativeMPC reste pour l'instant un résultat de recherche académique sans déploiement industriel annoncé, mais son approche explicitement certifiable ouvre des perspectives concrètes pour la logistique collaborative et la robotique médicale.

UELe LAAS-CNRS et Enchanted Tools (France) travaillent sur des architectures de contrôle sûres similaires ; l'approche hybride certifiable de GenerativeMPC pourrait renforcer le positionnement européen dans les débats réglementaires sur la certification des robots collaboratifs au titre de l'AI Act.

RechercheOpinion
1 source
Évaluation de l'inférence d'affordance sémantique par VLM pour des morphologies robotiques non humanoïdes
135arXiv cs.RO 

Évaluation de l'inférence d'affordance sémantique par VLM pour des morphologies robotiques non humanoïdes

Une équipe de chercheurs publie sur arXiv (2604.19509) une évaluation empirique des modèles vision-langage (VLM) pour l'inférence d'affordances sur des robots à morphologie non humanoïde. L'"affordance" désigne ici la capacité d'un modèle à déterminer quelles actions sont physiquement réalisables par un robot donné face à un objet spécifique. Les auteurs ont constitué un jeu de données hybride combinant des annotations réelles de relations affordance-objet et des scénarios synthétiques générés par VLM, couvrant plusieurs catégories d'objets et plusieurs types de morphologies robotiques. Les résultats montrent une généralisation prometteuse aux formes non humanoïdes, mais des performances très variables selon les domaines d'objets. Le constat central est un schéma systématique de faible taux de faux positifs associé à un fort taux de faux négatifs, révélant que les VLM adoptent des prédictions trop conservatrices. Ce biais est particulièrement prononcé pour les outils inédits et les manipulations non conventionnelles. Pour les intégrateurs qui envisagent d'utiliser les VLM comme couche de planification sémantique, ce résultat est structurellement important. Le biais conservateur offre un avantage de sécurité intrinsèque, les robots n'entreprenant pas d'actions impossibles ou dangereuses, mais le taux élevé de faux négatifs freine l'exploitation réelle : le système refuse des tâches qu'il pourrait pourtant accomplir. Pour un architecte de système ou un COO industriel, cela confirme qu'un VLM seul ne peut pas servir de module d'affordance universel pour des cobots ou des AMR (robots mobiles autonomes) aux morphologies spécifiques. Des couches complémentaires, simulation physique ou vérification cinématique, restent nécessaires pour corriger ce défaut sans sacrifier la sécurité. La recherche sur les affordances VLM s'est construite massivement sur des corpus centrés sur l'interaction humain-objet, laissant les robots non humanoïdes structurellement sous-représentés. Des architectures VLA (Vision-Language-Action) comme pi-zero de Physical Intelligence ou GR00T N2 de NVIDIA ont été évaluées principalement sur des tâches de manipulation humain-like. Cette étude pointe un enjeu distinct pour des plateformes comme Spot de Boston Dynamics ou ANYmal d'ANYbotics, dont les effecteurs et degrés de liberté (DOF) diffèrent fondamentalement de la main humaine. Les auteurs proposent des architectures hybrides et des jeux de données morpho-spécifiques comme prochaines étapes pour réduire le biais conservateur tout en préservant les faibles taux de faux positifs, seul acquis de sécurité clairement démontré.

UELes intégrateurs européens déployant des AMR ou cobots non humanoïdes (ANYmal d'ANYbotics, Spot) doivent anticiper des couches de vérification cinématique complémentaires aux VLM avant tout déploiement autonome en planification sémantique.

RechercheOpinion
1 source
Apprentissage multi-allures pour robots humanoïdes par renforcement avec prior de mouvement adversarial sélectif
136arXiv cs.RO 

Apprentissage multi-allures pour robots humanoïdes par renforcement avec prior de mouvement adversarial sélectif

Des chercheurs ont publié en avril 2026 sur arXiv (preprint 2604.19102) une méthode d'apprentissage par renforcement permettant à un humanoïde à 12 degrés de liberté de maîtriser cinq allures dans un cadre politique unifié : marche normale, marche militaire cadencée (goose-stepping), course, montée d'escaliers et saut, avec un espace d'action et une formulation de récompense identiques pour toutes. La contribution centrale est une stratégie appelée AMP sélectif (Adversarial Motion Prior sélectif) : l'AMP, qui guide l'apprentissage en comparant les mouvements générés à des données de référence de type mocap, est appliqué uniquement aux allures périodiques et stables (marche, goose-stepping, escaliers), et délibérément omis pour les allures dynamiques (course, saut) où sa régularisation briderait trop le mouvement. L'entraînement repose sur PPO (Proximal Policy Optimization) avec randomisation de domaine en simulation, et les politiques sont déployées sur le robot physique par transfert sim-to-réel zéro-shot, sans phase d'adaptation supplémentaire. Les expériences quantitatives montrent que l'AMP sélectif surpasse une politique AMP uniforme sur les cinq allures : convergence plus rapide, erreur de suivi réduite et meilleurs taux de succès sur les allures stables, sans dégrader l'agilité des allures explosives. Pour les équipes d'ingénierie robotique, ce résultat renforce l'idée qu'une politique monolithique bien structurée peut remplacer plusieurs contrôleurs spécialisés, réduisant la complexité du système embarqué. La réussite du transfert zéro-shot valide par ailleurs l'efficacité de la randomisation de domaine pour combler le sim-to-real gap sur un humanoïde à 12 DOF, un résultat cohérent avec des travaux récents d'ETH Zurich et de Carnegie Mellon sur les robots bipèdes. L'Adversarial Motion Prior a été formalisé par Xue Bin Peng et al. (UC Berkeley, 2021) comme mécanisme pour imiter des mouvements de référence dans un cadre RL sans récompense artisanale excessive. Des équipes chez Agility Robotics, Figure AI et Boston Dynamics explorent des variantes similaires, mais la plupart des publications se concentrent sur une ou deux allures à la fois. Ce preprint propose une généralisation plus large, bien que le robot utilisé (12-DOF, sans identification de marque dans l'abstract) reste une plateforme expérimentale dont les performances hors simulation restent à confirmer sur des terrains non contrôlés. Aucune entité française ou européenne n'est impliquée. Les étapes suivantes naturelles incluent l'extension à davantage de DOF, l'intégration de primitives de manipulation et des tests en conditions réelles variées.

HumanoïdesPaper
1 source
Assemblage robotique à contacts multiples dans la construction par politique de diffusion
137arXiv cs.RO 

Assemblage robotique à contacts multiples dans la construction par politique de diffusion

Des chercheurs ont publié sur arXiv (arXiv:2511.17774, version 3) une étude portant sur l'application de l'apprentissage par diffusion à l'assemblage robotique dans le secteur de la construction. Le cas d'usage retenu est l'assemblage tenon-mortaise en bois, une jonction à contact riche soumise à des contraintes de friction et de géométrie strictes, avec des jeux inférieurs au millimètre. Les politiques de diffusion sensori-motrices ont été entraînées à partir de démonstrations téléopérées collectées sur un poste de travail robotique industriel équipé de capteurs force/couple. L'évaluation s'est déroulée en deux phases : une baseline en conditions nominales et un test de robustesse avec des perturbations positionnelles aléatoires allant jusqu'à 10 mm, soit un ordre de grandeur au-delà de la tolérance d'assemblage. La politique la plus performante atteint 100 % de taux de succès en conditions nominales et 75 % en moyenne sous perturbation. Ce résultat est notable car il adresse directement un verrou industriel structurel : l'accumulation de tolérances dans la construction empêche depuis longtemps l'automatisation fiable des tâches d'assemblage à contact. Le fait qu'une politique diffusion parvienne à compenser des désalignements de 10 mm pour des jeux sub-millimétriques suggère que ces architectures apprennent implicitement une stratégie de compliance active via le retour d'effort, sans modélisation géométrique explicite. Pour un intégrateur industriel ou un bureau de méthodes, cela signifie que le sim-to-real gap sur des tâches de précision en construction pourrait être en partie résorbé par l'apprentissage par imitation couplé à la force/couple, sans recalibration manuelle systématique. L'assemblage tenon-mortaise n'est pas un choix anodin : cette technique millénaire est revenue en force dans la construction bois massive (CLT, charpente lamellée-croisée), un segment en forte croissance en Europe avec des acteurs comme Sœur Bois ou Blumer-Lehmann. Les politiques de diffusion appliquées à la robotique manipulatrice ont été popularisées par des travaux comme le Diffusion Policy de Chi et al. (2023, Columbia/Toyota) et sont désormais explorées par des labos comme Physical Intelligence (pi) avec Pi-0, ou par Boston Dynamics Research. Cette étude se distingue en ciblant explicitement la construction industrielle plutôt que la cuisine ou la logistique. La prochaine étape logique serait un déploiement en conditions chantier réelles, avec variation de matériaux et de géométries, ce que les auteurs n'ont pas encore testé.

UELe segment construction bois massive (CLT, charpente lamellée-croisée) est en forte croissance en Europe avec des acteurs comme Sœur Bois ou Blumer-Lehmann ; une automatisation fiable des assemblages à contact ouvrirait une voie d'industrialisation directement applicable sur les chantiers européens.

RecherchePaper
1 source
EgoWalk : un jeu de données multimodal pour la navigation robotique en conditions réelles
138arXiv cs.RO 

EgoWalk : un jeu de données multimodal pour la navigation robotique en conditions réelles

Une équipe de chercheurs a publié EgoWalk, un dataset multimodal de 50 heures de navigation humaine destiné à entraîner des algorithmes de navigation robotique en conditions réelles. Les données ont été collectées dans une grande variété d'environnements intérieurs et extérieurs, sur plusieurs saisons et sites géographiques différents. Le dataset comprend les données brutes ainsi qu'un format prêt pour l'apprentissage par imitation (Imitation Learning), accompagné de pipelines automatisés générant deux types de sous-datasets dérivés : des annotations d'objectifs en langage naturel et des masques de segmentation de traversabilité. L'ensemble des pipelines de traitement et la description de la plateforme matérielle utilisée pour la collecte sont publiés en open source. L'intérêt principal d'EgoWalk réside dans la rareté des datasets de navigation en conditions non contrôlées, à grande échelle et couvrant plusieurs saisons. La majorité des systèmes de navigation robotique actuels souffrent d'un écart sim-to-real persistant, faute de données réelles suffisamment diversifiées. En proposant simultanément des annotations langage naturel et des masques de traversabilité générés automatiquement, EgoWalk vise à réduire le coût de labellisation manuelle qui freine le développement de modèles vision-langage-action (VLA) pour la navigation outdoor. La publication open source des pipelines permet aux équipes de réplication de reconstruire des datasets similaires sur leur propre plateforme, ce qui est un signal positif pour la reproductibilité dans le domaine. La navigation autonome en environnements non structurés reste l'un des défis centraux de la robotique mobile, que ce soit pour les robots de livraison, les plateformes de surveillance ou les assistants mobiles. EgoWalk s'inscrit dans un mouvement plus large de constitution de datasets ego-centriques, aux côtés d'initiatives comme SCAND (UT Austin) ou des travaux de Boston Dynamics et de Google DeepMind sur la navigation en extérieur. Le fait que les données soient collectées du point de vue humain, plutôt que depuis un robot, soulève la question du transfert de domaine, que les auteurs reconnaissent implicitement en proposant des benchmarks et études de diversité. Les prochaines étapes naturelles seraient la validation sur des plateformes robotiques réelles et l'intégration dans des architectures de type foundation model pour la navigation.

RechercheActu
1 source
EmbodiedLGR : un graphe léger pour la mémoire sémantique-spatiale des agents robotiques
139arXiv cs.RO 

EmbodiedLGR : un graphe léger pour la mémoire sémantique-spatiale des agents robotiques

Des chercheurs ont publié le 23 avril 2026 sur arXiv (référence 2604.18271) les travaux sur EmbodiedLGR-Agent, une architecture mémoire pour robots mobiles combinant graphe sémantique léger et retrieval-augmented generation. Le système repose sur un modèle visuo-langagier (VLM) à faible empreinte paramétrique qui indexe en continu les objets détectés, leurs positions et leurs relations spatiales dans un graphe dense, tout en conservant des descriptions de haut niveau des scènes observées via une couche RAG classique. L'ensemble tourne localement, sans dépendance cloud. Évalué sur le benchmark NaVQA, EmbodiedLGR-Agent atteint des performances état de l'art sur les temps d'inférence et de requête pour les agents robotiques embarqués, tout en maintenant une précision compétitive sur la tâche globale de question-réponse spatiale. Le système a également été déployé sur un robot physique réel, validant son utilité hors simulation. Ce qui mérite attention, c'est moins la précision brute que la latence : dans les interactions humain-robot, un agent qui répond "où sont les ciseaux ?" en temps humain change radicalement l'expérience utilisateur. La majorité des architectures mémoire robotiques actuelles sacrifient la réactivité à la richesse sémantique, ou inversement. L'approche hybride graphe + RAG tente de résoudre ce compromis sans exploser les ressources de calcul embarqué. Le déploiement sur robot physique, et non en simulation pure, est un signal concret, même si l'article ne précise pas la plateforme matérielle ni les métriques de latence chiffrées en millisecondes, ce qui limite la comparabilité directe avec d'autres systèmes. L'enjeu de la mémoire sémantique-spatiale est un chantier ouvert depuis plusieurs années dans la communauté robotique, avec des approches comme les scene graphs neuraux, ConceptGraphs ou encore les travaux de SayPlan. EmbodiedLGR se positionne sur le segment des architectures légères et déployables sur matériel contraint, là où des solutions comme celles de Boston Dynamics ou des startups comme Skild AI misent plutôt sur la puissance de calcul embarquée ou le traitement distant. Sur le front européen, des acteurs comme Enchanted Tools (Mirokaï) ou Wandercraft travaillent également sur la cognition embarquée, mais dans des contextes applicatifs distincts. Les prochaines étapes naturelles seraient une évaluation sur des benchmarks plus récents (Habitat, OpenEQA) et une publication des temps de latence mesurés sur plateforme physique.

RechercheOpinion
1 source
Locomotion corps entier des humanoïdes : apprentissage par génération et suivi de mouvement
140arXiv cs.RO 

Locomotion corps entier des humanoïdes : apprentissage par génération et suivi de mouvement

Des chercheurs proposent un cadre de locomotion humanoid corps-entier combinant un modèle de diffusion entraîné sur des mouvements humains retargetés avec un tracker de mouvements par apprentissage par renforcement (RL), le tout déployé sur le robot Unitree G1. Le système génère en temps réel des trajectoires de référence adaptées au terrain, puis un module de suivi les exécute sur le robot complet, en s'appuyant uniquement sur la perception embarquée. Lors des tests matériels, le G1 a franchi avec succès des boîtes, des haies, des escaliers et des combinaisons de terrains mixtes, sans recourir à des capteurs externes ni à un calcul déporté. L'enjeu technique central que ce travail adresse est connu dans le secteur sous le nom de "lower-body dominance" : les approches RL classiques avec reward shaping tendent à produire une locomotion efficace mais raide, concentrée sur les jambes, au détriment de la coordination du buste et des bras. À l'inverse, l'imitation pure de mouvements de référence limite la capacité d'adaptation en ligne aux obstacles imprévus. Le couplage proposé -- générer à la volée la référence adaptée au terrain puis la tracker en boucle fermée -- représente une architecture crédible pour combler ce gap, même si les vidéos de démonstration présentées restent sélectionnées et ne constituent pas encore une validation sur terrain non contrôlé à large échelle. Le Unitree G1, commercialisé depuis 2024 à environ 16 000 dollars, est devenu un banc de test standard pour les laboratoires académiques en locomotion humanoid, au même titre que l'Atlas de Boston Dynamics pour les groupes industriels. Ce travail s'inscrit dans une vague de publications exploitant les modèles de diffusion pour la génération de mouvements robotiques, une tendance initiée notamment par les travaux sur pi0 (Physical Intelligence) et GR00T N2 (NVIDIA). Les auteurs annoncent des résultats quantitatifs montrant que la fine-tuning en boucle fermée améliore la généralisation ; la prochaine étape logique serait une validation sur des terrains non vus pendant l'entraînement et un déploiement en conditions industrielles réelles.

HumanoïdesPaper
1 source
Les géants technologiques chinois accélèrent dans la robotique, un secteur en pleine expansion
141SCMP Tech 

Les géants technologiques chinois accélèrent dans la robotique, un secteur en pleine expansion

Honor, filiale autonome de Huawei depuis 2020 et jusqu'ici positionnée sur les smartphones et wearables, a décroché la médaille d'or au deuxième semi-marathon humanoides de Pékin avec son robot baptisé Lightning, devançant des acteurs spécialisés comme Unitree et X-Humanoid. L'événement, organisé dimanche dernier, réunissait les principaux constructeurs de robots humanoïdes chinois dans une course d'endurance conçue pour évaluer locomotion et robustesse en conditions réelles. Alibaba figure également parmi les grands groupes technologiques qui accélèrent leurs investissements dans le secteur, dans un contexte où Pékin pousse activement à la montée en puissance de la robotique nationale. La victoire d'Honor est significative car elle illustre un phénomène nouveau: les Big Tech généralistes chinois rattrapent en moins de deux ans des spécialistes de la robotique humanoïde qui disposent de plusieurs années d'avance en R&D. Cela suggère que les barrières à l'entrée s'abaissent rapidement, portées par la disponibilité de fondations logicielles communes et d'une chaîne d'approvisionnement matérielle dense en Chine. Pour les intégrateurs industriels, cela annonce une intensification de la concurrence et potentiellement une compression des prix sur les plateformes humanoïdes dans les 18 à 24 prochains mois. Honor n'a lancé sa division robotique qu'en 2025, ce qui rend sa performance d'autant plus notable. La Chine compte désormais plusieurs dizaines de startups humanoïdes, dont Unitree et Fourier Intelligence, mais l'entrée des grandes plateformes tech recompose le paysage compétitif. Côté occidental, Boston Dynamics, Figure AI et Agility Robotics suivront de près cette évolution, notamment pour évaluer si les performances en course se traduisent en fiabilité opérationnelle industrielle.

Chine/AsieOpinion
1 source
Le robot humanoïde Digit démontre sa force et son équilibre avec un soulevé de terre de 30 kg
142Interesting Engineering 

Le robot humanoïde Digit démontre sa force et son équilibre avec un soulevé de terre de 30 kg

Le robot humanoïde Digit, développé par Agility Robotics (Oregon, États-Unis), vient de réaliser un soulevé de terre de 29 kilogrammes (65 livres) dans un environnement de laboratoire contrôlé. La démonstration met en évidence une coordination corpo-entière, bras, jambes et torse s'ajustent dynamiquement en temps réel pour maintenir l'équilibre sous charge. Selon l'entreprise, l'exercice a été conçu pour tester les limites des actionneurs, la durabilité des articulations et les systèmes de contrôle en temps réel. La politique de contrôle a été entraînée en simulation : un objet virtuel est introduit dans un environnement numérique, permettant au modèle d'apprendre la distribution de charge, les forces de préhension et les déplacements du centre de masse. Des milliers d'essais simulés affinent ensuite la stabilité de prise et le contrôle postural avant transfert sur le robot physique. La version actuelle de Digit embarque également une autonomie batterie de quatre heures, un système d'auto-recharge par docking autonome, des membres renforcés, des effecteurs terminaux avancés, et des protocoles de sécurité industrielle incluant un arrêt de catégorie 1, des PLCs de sécurité et le protocole FailSafe over EtherCAT. Ce que révèle cette démonstration va au-delà du simple exercice de force : elle illustre le passage des trajectoires articulaires programmées manuellement vers des politiques adaptatives apprises, un changement de paradigme significatif pour les intégrateurs industriels. Le sim-to-real, longtemps considéré comme un verrou majeur de la robotique humanoïde, semble ici suffisamment mature pour gérer des tâches de manipulation lourde avec consistance et sans réinitialisation. Pour un COO industriel, la promesse concrète est un robot capable d'empiler des bacs, charger des chariots et manutentionner des matériaux variés de façon autonome et répétable, en complément de robots mobiles autonomes (AMR) qui assurent le transport. La durabilité sous charge soutenue reste toutefois à valider en conditions réelles de production : la vidéo présentée est un test laboratoire, pas un déploiement opérationnel. Agility Robotics a été fondée en 2015 à partir des travaux de l'Oregon State University sur la locomotion bipède. L'entreprise a signé un partenariat stratégique avec Amazon, qui a piloté Digit dans ses entrepôts en 2023-2024. Elle se positionne directement face à Figure AI (Figure 02, partenariat BMW), Boston Dynamics (Atlas), Tesla (Optimus) et 1X Technologies sur le segment de l'humanoïde industriel. Contrairement à Figure ou Tesla qui communiquent davantage sur des capacités de manipulation généraliste, Agility mise sur une intégration logistique ciblée, en couplant Digit aux flottes AMR existantes. Les prochaines étapes annoncées incluent une accélération de la cadence de production et un déploiement élargi dans des environnements entrepôt multi-unités, sans date précise communiquée à ce stade.

HumanoïdesActu
1 source
Planification de trajectoires multi-objectifs pour flottes de robots hétérogènes par échantillonnage
143arXiv cs.RO 

Planification de trajectoires multi-objectifs pour flottes de robots hétérogènes par échantillonnage

Une équipe de chercheurs en robotique vient de publier sur arXiv (référence 2503.03509, troisième révision) un ensemble de planificateurs de trajectoires conçus pour coordonner plusieurs robots évoluant simultanément dans un espace de travail partagé, chacun devant atteindre plusieurs objectifs successifs dans des configurations physiques variées. Le problème ciblé, dit "multi-modal multi-robot multi-goal", couvre des scénarios concrets tels que le passage de pièces entre bras robotiques (handover), la navigation avec changements de mode de préhension, ou la coordination de flottes sur des horizons de planification longs. Les planificateurs proposés sont des extensions de méthodes classiques à base d'échantillonnage (de type RRT/PRM) adaptées à l'espace composite de l'ensemble des robots, et sont prouvés probabilistically complete et asymptotically optimal, deux propriétés formelles rarement réunies dans ce contexte. Le code source et le benchmark de validation sont disponibles publiquement. L'apport principal est théorique et algorithmique : les approches existantes pour ce type de problème reposent soit sur la priorisation entre robots (un robot cède le passage à un autre selon un rang fixé), soit sur une hypothèse de complétion synchrone des tâches. Ces simplifications sacrifient à la fois l'optimalité (la solution trouvée n'est pas la meilleure possible) et la complétude (l'algorithme peut rater des solutions valides). En reformulant le problème comme un seul problème centralisé de planification, les auteurs montrent qu'on peut lever ces limitations sans explosion combinatoire, au prix d'une planification dans un espace de dimension élevée. Pour les intégrateurs de cellules robotisées multi-bras ou les concepteurs de systèmes pick-and-place collaboratifs, cela ouvre la voie à des planificateurs de référence plus rigoureux que les heuristiques actuellement déployées en production. Ce travail s'inscrit dans un courant de recherche actif sur la planification multi-robot, aux côtés de travaux comme CBS (Conflict-Based Search) pour les AMR en entrepôt ou les approches de task-and-motion planning (TAMP) développées notamment chez MIT CSAIL, TU Berlin ou dans des labos liés à Boston Dynamics et Intrinsic (Alphabet). La distinction entre planification centralisée et décentralisée reste un axe structurant du domaine : cette contribution penche résolument du côté centralisé, ce qui la rend plus adaptée aux cellules industrielles fixes qu'aux flottes mobiles à grande échelle. La prochaine étape naturelle serait une validation sur hardware réel et une confrontation aux contraintes temps-réel des contrôleurs industriels.

RecherchePaper
1 source
Les atouts de la chaîne d'approvisionnement asiatique pourraient donner à l'Asie un avantage sur les États-Unis dans la course à l'IA, selon Foo de Granite Asia
144SCMP Tech 

Les atouts de la chaîne d'approvisionnement asiatique pourraient donner à l'Asie un avantage sur les États-Unis dans la course à l'IA, selon Foo de Granite Asia

Jixun Foo, associé gérant de Granite Asia et vétéran du capital-risque technologique asiatique, estime qu'Asia dispose d'un avantage structurel sur les États-Unis dans la prochaine phase de la course à l'IA. Selon lui, le développement de l'IA a franchi un cap décisif : après deux ans de percées sur les modèles de fondation (LLMs, VLMs), le secteur entre dans une phase d'applications physiques, robotique, automatisation industrielle, systèmes embarqués, où la capacité à produire du matériel à grande échelle devient aussi déterminante que la recherche algorithmique. Ce changement de paradigme est stratégiquement important pour les intégrateurs et décideurs industriels : il déplace le centre de gravité compétitif des data centers vers les chaînes d'approvisionnement. La Chine, le Japon, la Corée du Sud et Taiwan concentrent une part dominante de la fabrication mondiale de composants électroniques, de moteurs, d'actionneurs et de capteurs, précisément les éléments critiques pour déployer des robots physiques à l'échelle industrielle. Un avantage logistique et manufacturier peut compenser, au moins partiellement, un retard sur les modèles de base. Granite Asia, fonds hongkongais actif dans les technologies deeptech et la mobilité, s'inscrit dans un mouvement plus large de repositionnement des investisseurs asiatiques sur l'IA physique. Les concurrents américains, Figure AI, Agility Robotics, Boston Dynamics, misent sur l'excellence des modèles (VLA, GR00T N2, pi0), mais dépendent largement de composants fabriqués en Asie. La thèse de Foo rejoint celle de plusieurs analystes : la prochaine bataille ne se gagnera pas uniquement dans les laboratoires, mais sur les lignes de production.

UEL'avantage manufacturier asiatique sur les composants robotiques (actionneurs, capteurs, moteurs) renforce la dépendance structurelle des intégrateurs européens vis-à-vis des chaînes d'approvisionnement asiatiques, un enjeu de souveraineté industrielle pour la filière robotique EU.

Chine/AsieOpinion
1 source
Digit apprend le soulevé de terre
145IEEE Spectrum Robotics 

Digit apprend le soulevé de terre

Agility Robotics a publié cette semaine une démonstration de son robot humanoïde Digit soulevant une charge de 29,5 kg (65 livres) en deadlift complet, soit l'une des charges utiles les plus élevées jamais documentées pour ce châssis. L'entraînement de la politique de contrôle a été réalisé entièrement en simulation, en intégrant l'objet cible dans la boucle d'apprentissage afin de modéliser la distribution des charges, les forces de préhension et les variations du centre de masse de Digit lors du lever. La politique résultante se transfère au robot réel avec un équilibre dynamique maintenu tout au long du mouvement, sans ajustement manuel post-simulation. En parallèle, MagicLab Robotics a déployé un essaim mixte de chiens-robots et d'humanoïdes lors de la cérémonie d'ouverture du Jiangsu Super League, dans un environnement extérieur ouvert, revendiquant la coordination simultanée d'une flotte multi-catégories en conditions réelles. L'équipe de Harvard a présenté ses RAnts, un essaim de micro-robots fourmis sans contrôle centralisé capable de creuser et de construire des structures en ajustant deux paramètres seulement : la force de coopération et le taux de dépôt de matériau. Michigan Robotics a quant à elle montré un actionneur à microcombustion de 8 millimètres de diamètre capable de propulser des gouttelettes d'eau en 3 millisecondes, remettant en question l'hypothèse selon laquelle les actionneurs souples sont intrinsèquement lents. Gatlin Robotics a annoncé son premier contrat commercial sous modèle Robot-as-a-Service (RaaS), sans préciser le secteur d'activité ni le client. Le cas de Digit en deadlift est notable pour ce qu'il valide méthodologiquement : la capacité de transférer des politiques sim-to-real pour des tâches à forte sollicitation mécanique, où la coordination corps entier et la robustesse des actionneurs sont critiques. C'est un résultat concret pour les intégrateurs industriels qui évaluent les humanoïdes pour la manutention lourde, un segment jusqu'ici dominé par les bras industriels fixes. Le déploiement de MagicLab au Jiangsu Super League est présenté comme une preuve de maturité des systèmes multi-agents à l'échelle, mais il s'agit d'un spectacle chorégraphié : la coordination en environnement non structuré, avec aléas, reste à démontrer dans un contexte opérationnel. L'actionneur de Michigan Robotics remet en cause un a priori du secteur : que la souplesse implique lenteur. Un actionneur de 8 mm capable d'impulsions de 3 ms ouvre des perspectives pour la chirurgie robotique, la micro-assemblage ou les prothèses. Les RAnts de Harvard illustrent l'intérêt des architectures décentralisées pour la robotique collective en environnements dégradés, avec des applications potentielles dans la construction autonome ou la démantèlement de structures. Agility Robotics, rachetée par Agility en 2023 après une première commercialisation limitée de Digit chez Amazon, intensifie ses démonstrations de capacités en charge lourde pour se différencier face à Figure (Figure 03), Apptronik (Apollo) et Boston Dynamics (Atlas électrique). MagicLab est un acteur chinois encore peu documenté en dehors de l'Asie, positionnant ses systèmes multi-agents comme une alternative aux approches humanoïdes pures. LimX Dynamics, également présent cette semaine avec son robot TRON 1 pour la photographie autonome en terrains complexes, confirme la diversification des cas d'usage des robots quadrupèdes en Chine. Les prochaines grandes échéances du secteur sont ICRA 2026 à Vienne du 1er au 5 juin, puis RSS 2026 à Sydney en juillet, où plusieurs de ces travaux devraient être présentés dans leur version complète avec données et protocoles.

UELes intégrateurs industriels européens évaluant les humanoïdes pour la manutention lourde doivent surveiller la validation sim-to-real de Digit (29,5 kg), qui le positionne comme concurrent direct des bras fixes dans la logistique lourde.

HumanoïdesActu
1 source
Le vrai défi de la robotique n’est pas technique
146Robot Magazine FR 

Le vrai défi de la robotique n’est pas technique

Dominique Carricart, expert en intégration robotique industrielle, publie le 16 avril 2026 une tribune dans laquelle il défend une thèse contre-intuitive : depuis trente ans de terrain, les projets robotiques n'échouent pas pour des raisons techniques, mais pour des raisons humaines. Son point de départ est autobiographique : en 1996, embauché chez Renault à 23 ans pour accompagner la transition des robots hydrauliques vers les robots électriques, il se heurte immédiatement à la résistance de techniciens expérimentés qui maîtrisaient une logique câblée que les écoles n'enseignaient déjà plus. Ce choc de cultures lui a appris une règle qu'il observe depuis dans chaque projet : l'intégration d'une technologie ne se réduit pas à son installation. La vraie variable d'échec, c'est la question que chaque opérateur se pose en silence dès qu'un robot entre dans l'atelier, "Est-ce que mon emploi va disparaître ?", et que les directions évitent systématiquement d'aborder. Cette peur non adressée se traduit en coûts opérationnels concrets : désengagement, sabotage passif, robots tournant durablement sous leurs capacités nominales, pannes non signalées. Carricart identifie quatre profils récurrents chez les industriels : ceux qui refusent la technologie par crainte du risque, ceux qui l'utilisent sur un périmètre très restreint sans aller plus loin, ceux qui ont investi dans un robot aujourd'hui à l'arrêt faute de compétences internes pour le reprogrammer, et enfin les plus paradoxaux, ceux qui ont éliminé tout contrôle humain au profit de l'automatisation et génèrent des taux de rebut élevés. L'enseignement commun à ces quatre cas : le problème n'est jamais la machine. C'est la gouvernance humaine qui l'entoure. Pour les intégrateurs et les directeurs industriels, cette grille de lecture est directement actionnable : le ROI d'un déploiement robotique est autant une fonction de l'accompagnement du changement que de la performance mécanique. Ce constat prend une dimension nouvelle avec l'émergence des robots humanoïdes, dont plusieurs modèles étaient visibles au salon Global Industrie 2026. Leur argument commercial central, les ateliers existants étant conçus pour des corps humains, un robot anthropomorphe s'y intègre sans refonte d'infrastructure, est réel, mais Carricart souligne un effet collatéral ignoré : l'impact psychologique d'un humanoïde mobile est radicalement différent de celui d'un bras dans une cage. Un manipulateur industriel est perçu comme un outil ; un robot qui marche et saisit des objets dans l'espace de travail humain déclenche des réponses émotionnelles d'une autre nature. L'auteur, dont la tribune s'inscrit dans un contexte de montée en puissance des acteurs du secteur, Figure, Boston Dynamics, 1X, et côté francophone des initiatives comme Enchanted Tools, ne cite pas de déploiements chiffrés ni de données comparatives, ce qui limite la portée empirique de l'argument, mais la trajectoire observée depuis 1996 donne à son propos une crédibilité de praticien que les annonces de laboratoire ne contredisent pas.

UELa grille de lecture de Carricart sur la conduite du changement est directement applicable aux industriels français et européens évaluant un déploiement humanoïde après Global Industrie 2026, avec une mention explicite d'Enchanted Tools comme acteur francophone émergent.

IndustrielOpinion
1 source
Les entreprises chinoises de robotique misent sur les robots quadrupèdes comme principale source de revenus
147SCMP Tech 

Les entreprises chinoises de robotique misent sur les robots quadrupèdes comme principale source de revenus

Les entreprises chinoises de robotique misent de plus en plus sur les robots quadrupèdes comme moteur de revenus principal. AgiBot, acteur majeur de la robotique humanoïde en Chine, vient de filialiser son département quadrupède dans une entité indépendante baptisée AgiQuad. Qiu Heng, directeur des opérations de la nouvelle structure, a déclaré lors d'un briefing presse que l'objectif était d'éviter que l'unité "vive dans l'ombre du géant humanoïde" et de lui permettre une croissance à grande échelle. Dans le même temps, Amap prépare le lancement prochain d'un modèle quadrupède commercial. Ce repositionnement stratégique révèle un écart persistant entre l'attrait médiatique des humanoïdes et leur réalité commerciale. Les quadrupèdes, plus stables mécaniquement, plus simples à déployer en environnement industriel, et déjà éprouvés dans l'inspection d'infrastructure, l'agriculture ou la sécurité, génèrent des revenus concrets là où les humanoïdes restent majoritairement en phase pilote. La décision d'AgiBot de séparer les deux activités suggère que les cycles de vente et les profils clients sont suffisamment distincts pour justifier une structure dédiée, signal que le marché quadrupède arrive à maturité commerciale en Chine. AgiBot s'est imposé ces dernières années comme l'un des développeurs humanoïdes les plus actifs en Chine, aux côtés d'Unitree et de Fourier Intelligence. Sur le segment quadrupède, Unitree domine avec ses séries Go et B, tandis qu'à l'international, Boston Dynamics reste la référence avec Spot. La création d'AgiQuad positionne AgiBot sur une concurrence directe avec ces acteurs, avec l'avantage d'un écosystème industriel chinois intégré et des coûts de production structurellement inférieurs.

UELa montée en puissance des quadrupèdes chinois (AgiQuad, Unitree) à coûts structurellement inférieurs accroît la pression concurrentielle sur les intégrateurs et constructeurs européens positionnés sur l'inspection industrielle et la surveillance.

Chine/AsieOpinion
1 source
Gemini Robotics-ER 1.6 : le jour où les robots ont enfin commencé à penser
148Le Big Data 

Gemini Robotics-ER 1.6 : le jour où les robots ont enfin commencé à penser

Google DeepMind a lancé le 14 avril 2026 Gemini Robotics-ER 1.6, une mise à jour majeure de son modèle de raisonnement incarné destiné à la robotique. Cette nouvelle version améliore significativement la compréhension visuelle et spatiale des robots, leur permettant de planifier et d'exécuter des tâches plus complexes avec une autonomie accrue. Concrètement, le modèle est capable d'identifier des points de préhension optimaux sur des objets variés, de traiter des informations provenant de plusieurs angles simultanément grâce à la compréhension multi-vues, et de détecter si une tâche a été accomplie avec succès. Il surpasse ses prédécesseurs directs, Gemini Robotics-ER 1.5 et Gemini 3.0 Flash, notamment sur la lecture des espaces tridimensionnels et l'interprétation des mouvements. Le modèle est disponible dès maintenant via l'API Gemini et Google AI Studio pour les développeurs souhaitant l'intégrer dans leurs projets. Cette avancée marque un tournant dans la manière dont les robots interagissent avec le monde physique. Jusqu'ici, les systèmes automatisés suivaient des instructions rigides, incapables de s'adapter à des environnements imprévus. Avec ER 1.6, les machines peuvent interpréter des jauges et des indicateurs industriels, cartographier des trajectoires en tenant compte des contraintes environnementales, et valider elles-mêmes les résultats de leurs actions. Ce niveau de raisonnement ouvre la voie à des déploiements dans des contextes industriels réels, où les situations ambiguës ou complexes sont la norme. Google insiste également sur les améliorations en matière de sécurité : les tests montrent une meilleure conformité dans des scénarios de raisonnement spatial sensibles, un critère essentiel pour tout déploiement hors laboratoire. Le projet s'inscrit dans une course mondiale à la robotique intelligente où Google DeepMind s'impose comme acteur central. La collaboration avec Boston Dynamics, notamment sur la lecture d'instruments, illustre la convergence entre intelligence artificielle de pointe et plateformes robotiques éprouvées. En ouvrant l'accès via son API, Google mise sur un écosystème de développeurs pour accélérer l'expérimentation et multiplier les cas d'usage, de la logistique à la chirurgie assistée. Cette stratégie d'ouverture contraste avec des approches plus fermées, et positionne Gemini Robotics comme une infrastructure sur laquelle d'autres peuvent construire. Les prochains mois diront si ce pari sur le raisonnement incarné suffit à distancer des concurrents comme Figure AI, 1X ou Tesla, qui misent eux aussi sur des robots capables de comprendre leur environnement plutôt que de simplement l'exécuter.

HumanoïdesActu
1 source
Hyundai se lance dans la robotique et l'IA physique
149AI News 

Hyundai se lance dans la robotique et l'IA physique

Hyundai Motor Group a annoncé un pivot stratégique majeur vers la robotique et ce que le secteur appelle l'« IA physique », des systèmes d'intelligence artificielle intégrés à des machines capables d'agir et de s'adapter dans des environnements réels. Dans une interview accordée à Semafor, le président du groupe, Chung Eui-sun, a confirmé que ces technologies joueront un rôle central dans la prochaine phase de croissance du conglomérat coréen. Pour appuyer cette ambition, Hyundai prévoit d'investir 26 milliards de dollars aux États-Unis d'ici 2028, s'ajoutant aux quelque 20,5 milliards déjà engagés sur les quarante dernières années. Au cœur de ce plan : le déploiement de robots humanoïdes issus de Boston Dynamics, dont Hyundai a pris le contrôle en 2021, dans ses propres usines de fabrication. La production industrielle de ces robots est attendue vers 2028, avec un objectif de 30 000 unités par an d'ici 2030. Ce virage vers l'IA physique représente une transformation profonde du modèle opérationnel de Hyundai, qui vend chaque année plus de 7 millions de véhicules dans plus de 200 pays via 16 sites de production mondiaux. L'objectif n'est pas de substituer les robots aux humains, mais de leur confier les tâches répétitives ou physiquement exigeantes pendant que les opérateurs se concentrent sur la supervision et la coordination. Chung estime que cette réorganisation permettra d'améliorer l'efficacité et la qualité des produits face à des exigences clients en constante évolution. À terme, ces systèmes pourraient également s'étendre à la logistique et aux services de mobilité, même si les usines restent pour l'instant le principal terrain d'expérimentation. Hyundai n'évolue pas en isolation : la course à l'IA physique s'intensifie dans l'ensemble de l'industrie automobile et technologique, poussée par la convergence entre robotique avancée, données temps réel et modèles d'apprentissage automatique. Le groupe mise également sur l'hydrogène via sa marque HTWO, couvrant production, stockage et utilisation, qu'il présente comme complémentaire aux véhicules électriques, notamment pour alimenter les infrastructures d'IA et les centres de données dont les besoins énergétiques explosent. Ce double pari, robotique et énergie propre, reflète une lecture claire de la part de Chung : les mutations réglementaires et les nouvelles attentes des marchés régionaux imposent une refonte de la façon dont Hyundai produit et opère. Le constructeur, dont les marques Hyundai, Kia et Genesis forment encore le socle du chiffre d'affaires, entame une transition de long terme, du fabricant de véhicules vers un acteur de systèmes physiques intelligents.

UEHyundai, présent en Europe avec ses marques Kia et Genesis, pourrait déployer des robots humanoïdes Boston Dynamics dans ses sites de production mondiaux d'ici 2028, ce qui aura des répercussions sur la compétitivité industrielle automobile européenne.

HumanoïdesOpinion
1 source
Vidéo du vendredi : le robot bipède Roadrunner sort du lot
150IEEE Spectrum AI 

Vidéo du vendredi : le robot bipède Roadrunner sort du lot

Un nouveau robot bipède à roues baptisé « Roadrunner » a été dévoilé par le Robotics and AI Institute : pesant environ 15 kg, il peut basculer de manière fluide entre une configuration de roues côte à côte et une configuration en ligne, tout en intégrant des modes de marche à pied. Ses jambes entièrement symétriques lui permettent d'orienter ses genoux vers l'avant ou vers l'arrière pour contourner des obstacles. Un seul algorithme de contrôle gère l'ensemble des modes de locomotion, et plusieurs comportements complexes — comme se relever depuis le sol ou tenir en équilibre sur une seule roue — ont été déployés directement sur le matériel sans entraînement supplémentaire. En parallèle, la NASA a officialisé deux missions robotiques majeures : SkyFall, qui enverra une flotte d'hélicoptères de nouvelle génération sur Mars pour repérer des sites d'atterrissage humains et cartographier les réserves de glace souterraine, et MoonFall, qui déploiera quatre drones mobiles autour du pôle sud lunaire pour préparer l'arrivée des astronautes Artemis. Les drones lunaires opéreront de manière autonome pendant 14 jours terrestres, explorant notamment des zones constamment dans l'ombre. Par ailleurs, des chercheurs du MIT Media Lab et du Politecnico di Bari ont présenté dans Science Robotics des « muscles à fibres électrofluidiques » — des actionneurs souples qui déplacent un liquide par champ électrique, sans pièces mobiles, intégrables directement dans des textiles. Ces avancées illustrent une convergence de tendances qui redéfinissent la robotique mobile. Le Roadrunner incarne une nouvelle génération de robots à locomotion multimodale capables de s'adapter dynamiquement à leur environnement, réduisant le besoin de systèmes spécialisés distincts pour chaque terrain. Les missions SkyFall et MoonFall représentent quant à elles une montée en puissance des robots autonomes dans l'exploration spatiale : là où Ingenuity était un démonstrateur technologique unique, la NASA passe désormais à des flottes coordonnées avec des objectifs opérationnels concrets. Les muscles artificiels du MIT ouvrent une voie vers des robots portables et des exosquelettes textiles, avec des applications potentielles en médecine de rééducation et en assistance aux personnes âgées. Le contexte général est celui d'une accélération sans précédent de la recherche en robotique incarnée. Le robot quadrupède open-source MEVIUS2, comparable en taille au Spot de Boston Dynamics et capable de grimper des escaliers, montre que la robotique avancée se démocratise via l'open source. Boston Dynamics, de son côté, met en avant ses protocoles de tests de fiabilité pour les performances live de Spot, signalant une maturité commerciale croissante. La démonstration d'un cadre de planification multi-robots coordonnant simultanément 40 engins terrestres et aériens illustre enfin que la robotique en essaim sort progressivement des laboratoires. La compétition internationale s'intensifie, portée par des institutions académiques, des agences spatiales et des acteurs privés qui convergent vers les mêmes jalons : autonomie, robustesse et déploiement à grande échelle.

UELe Politecnico di Bari (Italie) co-signe la recherche sur les muscles à fibres électrofluidiques publiée dans Science Robotics, illustrant la contribution européenne aux actionneurs souples pour exosquelettes et rééducation.

ExosquelettesActu
1 source