Aller au contenu principal

Dossier Enchanted Tools — Mirokaï

66 articles

Enchanted Tools et Mirokaï : robot social français à roues, animations expressives, expérimentations en hôpitaux et hôtels.

SECOND-Grasp : préhension dextérique guidée par le contact sémantique
1arXiv cs.RO IA physiqueOpinion

SECOND-Grasp : préhension dextérique guidée par le contact sémantique

Des chercheurs ont publié en mai 2025 sur arXiv (2605.13117) SECOND-Grasp (SEmantic CONtact-guided Dexterous Grasping), un cadre unifié permettant à des mains robotiques multi-doigts d'adapter leurs stratégies de préhension à des consignes en langage naturel tout en garantissant la stabilité physique du contact. Le pipeline enchaîne un raisonnement vision-langage pour identifier les zones de contact probables, une segmentation multi-vues, puis un module baptisé SGCR (Semantic-Geometric Consistency Refinement) qui raffine ces prédictions par cohérence inter-vues et suppression des régions géométriquement invalides, produisant des cartes de contact 3D exploitables. Ces cartes alimentent un apprentissage de politique via cinématique inverse, entraîné sur le dataset DexGraspNet. Sur des catégories d'objets vus en entraînement, le système atteint 98,2 % de taux de succès au levage ; sur des catégories non vues, 97,7 % ; la préhension guidée par l'intention progresse de 12,8 % et 26,2 % respectivement face aux baselines, validé sur Shadow Hand et Allegro Hand. Le résultat le plus significatif est précisément cette quasi-absence de dégradation entre catégories vues et non vues : cela suggère que le couplage sémantique-géométrique produit des représentations suffisamment abstraites pour généraliser hors distribution, un verrou classique du dexterous grasping. L'intégration native du langage dans la planification de contact, plutôt qu'en couche de sélection aval, place SECOND-Grasp dans la lignée des architectures VLA appliquées à la manipulation fine, comme Pi-0 (Physical Intelligence) ou les travaux récents de DeepMind. Pour un décideur industriel, la promesse est lisible : un système capable de comprendre où et comment saisir selon une tâche verbalisée, sans ré-entraînement par catégorie d'objet. Les métriques restent toutefois issues de benchmarks contrôlés ; le transfert sim-to-real en environnement industriel non structuré n'est pas encore démontré. Le dexterous grasping est un chantier ouvert depuis les années 1990, longtemps fragmenté entre approches analytiques (calcul de wrench space) et méthodes data-driven. L'essor des modèles vision-langage a rouvert la question en conditionnant la préhension par le langage naturel. Les concurrents directs dans cet espace incluent GraspGPT, FoundationGrasp et les travaux de Stanford sur DexArt. En Europe, Enchanted Tools (robot Miroki) explore la manipulation expressive mais n'a pas publié de résultats comparables sur le grasping structuré. La prochaine étape naturelle pour SECOND-Grasp serait une validation sur plateforme physique en scène non contrôlée, potentiellement intégrée dans un pipeline humanoïde ou sur bras industriel polyvalent.

1 source
Collaboration humain-robot : analyse des modalités d'interaction dans les tâches complexes
2arXiv cs.RO 

Collaboration humain-robot : analyse des modalités d'interaction dans les tâches complexes

Des chercheurs ont soumis sur arXiv un préprint comparant trois modalités d'interaction en collaboration humain-robot sur une tâche d'assemblage contrainte. Dix-huit participants reconstruisaient de mémoire une tour colorée de sept couches à partir de briques proches et éloignées. La modalité passive les plaçait seuls face à la tâche ; la réactive activait l'assistance d'un robot mobile uniquement sur demande explicite ; la proactive permettait au robot d'initier lui-même les livraisons de briques et les signalements d'erreurs sans sollicitation. Résultat contre-intuitif : l'assistance robotique a allongé le temps de complétion dans les deux modalités actives, mais 67 % des participants ont préféré le comportement proactif et 78 % l'ont jugé le plus utile. Ce résultat met en évidence une tension centrale dans la conception des systèmes HRC : efficacité chronométrique et préférence subjective peuvent diverger significativement. Pour les intégrateurs industriels, la question pratique devient immédiate : optimiser le throughput ou l'expérience opérateur ? La supériorité perçue du mode proactif suggère que le support anticipatif réduit la charge cognitive et l'incertitude, deux facteurs critiques en production. L'échantillon restreint de 18 participants en contexte de laboratoire limite toutefois sérieusement la généralisation à une échelle industrielle réelle. Cette étude s'inscrit dans une littérature croissante sur les AMR (robots mobiles autonomes) dotés de comportements adaptatifs, en dialogue direct avec les approches basées sur des architectures VLA (Vision-Language-Action) pour la planification d'intention. En Europe, des acteurs comme Enchanted Tools et des équipes académiques comme le LAAS-CNRS explorent des interfaces humain-robot de nature comparable. Les suites logiques de ce travail incluent un échantillon élargi, des tests hors laboratoire et l'évaluation de la fatigue cognitive sur des horizons temporels plus longs.

UELe LAAS-CNRS et Enchanted Tools explorent des interfaces humain-robot comparables, rendant ces résultats pertinents pour les équipes françaises travaillant sur la robotique collaborative et les AMR adaptatifs.

RecherchePaper
1 source
L'IA physique, trait d'union entre rentabilité et durabilité
3The Robot Report 

L'IA physique, trait d'union entre rentabilité et durabilité

Omar Asali, président et directeur général de Ranpak, prendra la parole le 27 mai 2026 au Robotics Summit & Expo de Boston (Thomas M. Menino Convention & Exhibition Center, 14h30-15h15) pour présenter les résultats chiffrés de l'IA physique appliquée à la logistique d'entrepôt. Les métriques avancées par Ranpak dans des scénarios de déploiement réels sont les suivantes : réduction de 25 % de la consommation de carton ondulé (corrugate), diminution de 75 % du nombre de références boîtes (SKUs) en stock, et multiplication par 4 à 5 du débit de traitement. L'entreprise positionne ces gains comme une réfutation empirique du "dilemme vert", la présupposition largement répandue dans le secteur logistique selon laquelle les objectifs de durabilité entrent nécessairement en conflit avec la rentabilité opérationnelle. Le concept central mis en avant par Ranpak est celui d'IA physique (physical AI) : des systèmes embarqués, pilotés par capteurs, capables de caractériser en temps réel les objets manipulés pour adapter dynamiquement le format d'emballage. Contrairement aux approches purement logicielles (optimisation de tournées, prévision de la demande), l'IA physique agit directement sur le flux matière, ce qui explique l'impact simultané sur les coûts matière, le footprint de stockage et le débit. Pour un intégrateur ou un COO industriel, l'argument est structurant : si les chiffres sont confirmables à l'échelle, cela invalide le trade-off classique entre capex automation et ROI court terme, et rend les critères ESG directement commensurables aux KPIs opérationnels. Il convient toutefois de noter que les métriques présentées émanent d'un communiqué de promotion de conférence, sans méthodologie publiée ni périmètre de déploiement précisé, à vérifier avant toute extrapolation. Ranpak, fondée en 1972 et cotée au NYSE (PACK), est historiquement spécialisée dans les matériaux d'emballage protecteur en papier. L'entreprise a amorcé depuis 2019 un pivot vers l'automatisation, avec des acquisitions dans la robotique d'emballage (notamment Automated Packaging Systems et des partenariats avec des intégrateurs AMR). Sur le segment de l'optimisation d'emballage piloté par IA, Ranpak se positionne face à des acteurs comme Packsize (dimensionneurs on-demand), Sparck Technologies (boîtes sur-mesure automatisées) et, sur le volet logiciel pur, Nulogy ou Paccurate. Aucun acteur français ou européen de premier plan n'est directement cité dans ce contexte, bien qu'Enchanted Tools et Pollen Robotics travaillent sur des segments adjacents de manipulation en entrepôt. La prochaine étape observable sera la présentation elle-même le 27 mai, et d'éventuelles annonces de pilotes ou de partenariats associées au salon.

UELes métriques annoncées pourraient intéresser les opérateurs logistiques européens, mais aucun déploiement ni partenariat européen n'est confirmé à ce stade.

IndustrielActu
1 source
IA incarnée : cartographie des stratégies de toucher affectif sur un robot humanoïde
4arXiv cs.RO 

IA incarnée : cartographie des stratégies de toucher affectif sur un robot humanoïde

Une équipe de chercheurs a publié en mai 2026 une étude (arXiv:2605.11825) examinant comment les humains expriment des émotions par le toucher physique sur un robot humanoïde. L'expérience impliquait 32 participants interagissant avec le robot iCub, développé par l'Istituto Italiano di Tecnologia (IIT) et équipé de capteurs tactiles distribués sur l'ensemble du corps. Les participants devaient exprimer huit émotions distinctes dans trois conditions : toucher libre (sans restriction de zone), toucher limité au bras, et toucher limité au torse. L'étude mesurait simultanément les zones de contact choisies et les dynamiques gestuelles, soit la pression, l'amplitude et la vitesse de mouvement. Les résultats contredisent une hypothèse courante en HRI (Human-Robot Interaction) : celle selon laquelle les stratégies de toucher affectif seraient stables et transposables d'une région corporelle à l'autre. En toucher libre, les participants privilégient nettement le haut du corps, socialement accessible (épaules, bras), tandis que les zones moins sollicitées présentent une sélectivité émotionnelle plus marquée. En condition bras-seulement, la variation émotionnelle se traduit principalement par des caractéristiques de mouvement ; en condition torse-seulement, c'est la pression qui porte l'information affective. Les stratégies ne se transfèrent pas entre conditions contraintes, même pour une région corporelle grossièrement similaire. Ce résultat a une implication directe pour la conception : un système de reconnaissance du toucher émotionnel entraîné sur une seule zone corporelle ne généralisera pas à l'ensemble du robot. Environ 30 % des participants ont signalé une modification de leur perception de la relation sociale avec iCub, et l'ensemble du groupe a rapporté une augmentation du sentiment de proximité après l'interaction. L'iCub est l'une des rares plateformes humanoïdes académiques disposant d'une surface tactile distribuée complète, ce qui en fait un outil expérimental difficile à reproduire en dehors de l'IIT, acteur européen de référence en robotique de recherche. Cette publication s'inscrit dans un champ actif autour de la robotique sociale affective, où des acteurs comme SoftBank Robotics (Pepper), Enchanted Tools (France, avec Miroki) ou 1X Technologies tentent de rendre les interactions physiques homme-robot plus naturelles. Les prochains verrous techniques concernent la reconnaissance automatique des émotions exprimées par le toucher et l'adaptation comportementale du robot en temps réel : deux composants encore absents des systèmes commerciaux actuels, ce qui maintient ces résultats dans le registre de la recherche fondamentale plutôt que du déploiement industriel à court terme.

UEL'IIT (Italie), acteur européen de référence disposant de la plateforme iCub avec surface tactile distribuée complète, positionne l'UE comme leader en recherche HRI affective, avec des implications de conception pertinentes pour des acteurs français comme Enchanted Tools (Miroki).

FR/EU ecosystemePaper
1 source
DreamPolicy : une politique basée sur un modèle du monde unifié pour la locomotion des robots humanoïdes à grande échelle
5arXiv cs.RO 

DreamPolicy : une politique basée sur un modèle du monde unifié pour la locomotion des robots humanoïdes à grande échelle

Des chercheurs ont publié DreamPolicy (arXiv:2505.18780, mai 2025), un cadre de locomotion humanoïde conçu pour maîtriser des terrains variés avec une seule politique de contrôle. Son composant central est un modèle du monde à diffusion autorégressive, entraîné sur des trajectoires agrégées issues de plusieurs politiques spécialisées par type de terrain. Ce modèle génère des trajectoires futures physiquement plausibles qui guident une politique conditionnée, sans ingénierie manuelle des fonctions de récompense. En simulation, DreamPolicy surpasse la meilleure baseline de 27% sur des terrains composites jamais vus à l'entraînement, et de 38% sur des terrains combinés. Le framework est conçu pour scaler avec la taille du dataset offline: plus les données s'accumulent, plus le modèle de diffusion acquiert de compétences locomotrices. La contribution principale est de rompre le verrou "une tâche, une politique" qui freine les systèmes humanoïdes actuels. Les méthodes dominantes reposent sur la distillation de politiques enseignantes spécialisées en une politique étudiante unifiée; ce paradigme capture des primitives de base mais échoue à les composer organiquement face à des environnements composites hors distribution. DreamPolicy y substitue un modèle du monde qui capture des compétences locomotrices généralisables, autorisant un transfert zero-shot vers des terrains inédits. Il convient néanmoins de nuancer: les gains relatifs annoncés (27%, 38%) sont mesurés en simulation uniquement, sans détail sur les taux absolus de succès ni les conditions précises des benchmarks, ce qui limite les comparaisons directes avec d'autres systèmes publiés. Ce travail s'inscrit dans une tendance portée par DreamerV3 (Google DeepMind) et le RL model-based, ici appliquée à la locomotion humanoïde scalable. Figure, Agility Robotics (Amazon), Unitree, Apptronik et Boston Dynamics se livrent une course intensive sur ce segment; en Europe, Wandercraft (France) travaille sur la locomotion bipeède thérapeutique et Enchanted Tools sur des humanoïdes de service. DreamPolicy reste une contribution de recherche pure: aucun déploiement hardware ni partenariat industriel n'est mentionné. La validation sur robot physique constitue l'étape suivante naturelle, avec les défis de sim-to-real gap que les approches à diffusion n'ont pas encore pleinement résolus à grande échelle.

UEImpact indirect : les avancées en locomotion unifiée zero-shot pourraient alimenter les travaux de Wandercraft (France) sur la bipédie thérapeutique, mais aucun lien institutionnel ou déploiement européen n'est mentionné.

RecherchePaper
1 source
Des données de caméras corporelles sur des travailleurs humains servent à entraîner des cerveaux robotiques dans un essai coréen
6Interesting Engineering 

Des données de caméras corporelles sur des travailleurs humains servent à entraîner des cerveaux robotiques dans un essai coréen

La startup sud-coréenne RLWRLD a annoncé un partenariat avec le Lotte Hotel Seoul, le groupe logistique CJ Logistics et des enseignes Lawson pour constituer une base de données de gestes professionnels humains destinée à l'entraînement de robots. Les employés de ces sites portent des caméras-corps pendant l'exécution de tâches courantes mais techniquement exigeantes : pliage de serviettes de banquet et mise en place de tables à l'hôtel, opérations d'entrepôt chez CJ Logistics, organisation de rayonnages en commerce de détail. Ces flux vidéo, enrichis de données de mouvement et de force, alimentent le modèle fondationnel RLDX-1, présenté en 2025, qui cible la manipulation robotique haute précision avec des mains à haut degré de liberté (DoF). L'architecture centrale, baptisée Multi-Stream Action Transformer (MSAT), traite en flux parallèles les signaux visuels, de mouvement, de mémoire et de couple (torque), qu'elle fusionne ensuite pour générer les actions motrices. Le système intègre également un modèle vision-langage-action (VLA) spécialisé robotique, des modules de physique et de mouvement, et une interface cognitive qui compresse la perception en tokens mémoire pour le suivi de tâches longues. RLWRLD affirme que RLDX-1 dépasse les VLA leaders sur des benchmarks spatiaux, temporels et en contact riche, en simulation comme en conditions réelles, sans chiffres de latence ni taux de succès indépendants publiés à ce stade, ce qui invite à la prudence avant de valider ces affirmations. Ce projet illustre un changement de paradigme dans la collecte de données robotiques : au lieu de téléopération ou de simulation synthétique seule, RLWRLD mise sur la capture in situ d'expertise métier réelle, là où la dextérité humaine est déjà optimisée par des années de pratique. Pour les intégrateurs et les équipementiers industriels, cela signale que le goulot d'étranglement du sim-to-real gap pourrait être partiellement contourné par du data collection en environnement de production réel. La capacité de RLDX-1 à se généraliser sur des configurations single-arm, dual-arm et humanoïde depuis un modèle unique réduit potentiellement les coûts de fine-tuning par plateforme. La gestion de la mémoire à long horizon via tokens de cognition est une réponse directe à la limite connue des VLA actuels sur les tâches séquentielles complexes, problème documenté chez des équipes comme Physical Intelligence (Pi-0) ou chez l'équipe GR00T de NVIDIA. RLWRLD s'inscrit dans une vague coréenne de robotique physique soutenue par des programmes gouvernementaux de numérisation des savoir-faire pour l'IA industrielle. Sur le plan compétitif, la startup se positionne face à Physical Intelligence (Pi-0, États-Unis), à l'équipe GR00T N2 de NVIDIA, à Figure (Figure 03) et à 1X Technologies dans la course aux modèles fondationnels pour la manipulation. La Corée du Sud mobilise sa base manufacturière dense, automobile, électronique, logistique, comme terrain de collecte de données, ce que ni les laboratoires américains ni les acteurs européens comme Wandercraft ou Enchanted Tools ne répliquent à cette échelle sectorielle. Les prochaines étapes annoncées incluent l'extension des captations à d'autres secteurs et le déploiement du modèle sur des plateformes humanoïdes commerciales, sans calendrier précis communiqué.

UELa Corée du Sud construit à grande échelle un avantage compétitif en données d'expertise industrielle réelle que les acteurs européens ne répliquent pas encore, creusant l'écart sur les modèles fondationnels de manipulation robotique.

Chine/AsieOpinion
1 source
MVB-Grasp : filtrage par boîte de volume minimal des saisies par diffusion pour la manipulation frontale
7arXiv cs.RO 

MVB-Grasp : filtrage par boîte de volume minimal des saisies par diffusion pour la manipulation frontale

Une équipe de chercheurs a publié sur arXiv (référence 2505.09672) MVB-Grasp, un système de saisie robotique conçu pour le bras Unitree Z1, un manipulateur à 6 degrés de liberté (DOF) positionné en configuration frontale, c'est-à-dire face à l'objet plutôt qu'en vue surplombante. Le dispositif expérimental associe une caméra Intel RealSense D405, un détecteur d'objets YOLOv8 et le générateur de prises GraspGen basé sur la diffusion. L'innovation centrale est un filtre géométrique fondé sur la boîte englobante de volume minimal orientée (MVBB) : en analysant les normales des faces de cette boîte en temps O(N), le système élimine les candidats de saisie qui traverseraient la table ou s'aligneraient mal avec les faces accessibles de l'objet. Une fonction de re-scoring combine le score du discriminateur appris et l'alignement géométrique avec un coefficient alpha fixé à 0,85. Sur 81 épisodes de simulation MuJoCo (cylindre, boîte asymétrique, bouteille d'eau), MVB-Grasp atteint 59,3 % de succès contre 24,7 % pour GraspGen seul, soit un gain de 2,4x, confirmé ensuite en conditions réelles sans nécessiter de ré-entraînement du modèle. Ce résultat est notable parce qu'il pointe un angle mort structurel de la recherche en manipulation : les benchmarks standards comme GraspNet-1Billion ou YCB-Video sont quasi-exclusivement conçus pour des caméras en vue de dessus sur des manipulateurs haut de gamme à large espace de travail. Or une part croissante des déploiements industriels et de service implique des bras montés sur des piédestaux fixes ou des AMR, en saisie frontale, avec des contraintes cinématiques sévères. Le fait que le gain soit obtenu sans ré-entraînement, uniquement par un filtre géométrique injecté en post-traitement, démontre que le "sim-to-real gap" dans ces configurations n'est pas seulement un problème de données mais aussi de biais dans la sélection des poses candidates. C'est une piste directement exploitable pour les intégrateurs qui déploient des manipulateurs à bas coût dans des cellules contraintes. Le Unitree Z1 est un bras compact vendu autour de 4 000 à 6 000 dollars, souvent utilisé en recherche académique comme alternative économique aux UR5 ou Franka Panda. La diffusion appliquée à la génération de prises est un axe actif depuis 2022-2023 (GraspGen, SE(3)-DiffusionFields, DexGraspNet 2.0), mais la majorité des travaux optimisent pour des postures overhead. Côté concurrents directs sur les manipulateurs frontaux contraints, les approches d'Enchanted Tools et les travaux issus du LAAS-CNRS en France explorent des contraintes similaires, bien que sur des plateformes différentes. La prochaine étape logique pour cette équipe serait d'étendre le protocole à des objets articulés ou transparents, et d'intégrer le filtre MVBB dans une boucle de planification réactive plutôt qu'en sélection statique de candidats.

UELe filtre MVBB est directement exploitable sans ré-entraînement par des intégrateurs européens déployant des manipulateurs en configuration frontale sur AMR ou piédestaux fixes, et s'inscrit dans la continuité de travaux menés au LAAS-CNRS et chez Enchanted Tools en France sur des contraintes cinématiques similaires.

💬 Un filtre géométrique pur, injecté en post-traitement, qui multiplie le taux de succès par 2,4 sans ré-entraîner le modèle : c'est le genre de résultat qui devrait faire rougir pas mal d'équipes qui empilent des couches de deep learning là où une contrainte bien posée suffit. Ce qui est vraiment utile ici, c'est qu'ils pointent un biais structurel évident en retrospective : tous les benchmarks standards supposent une caméra en vue de dessus, alors que la moitié des bras déployés en prod sont en configuration frontale sur des AMR ou des piédestaux fixes. Le filtre MVBB, tu peux le brancher demain sur ton pipeline existant.

IA physiquePaper
1 source
REI-Bench : les agents incarnés peuvent-ils comprendre des instructions humaines vagues pour planifier des tâches ?
8arXiv cs.RO 

REI-Bench : les agents incarnés peuvent-ils comprendre des instructions humaines vagues pour planifier des tâches ?

Des chercheurs ont publié REI-Bench (arXiv:2505.10872), le premier benchmark dédié à évaluer comment les planificateurs de tâches robotiques basés sur des grands modèles de langage (LLM) gèrent les instructions humaines vagues. L'étude porte spécifiquement sur les expressions référentielles (ER), formulations dont le sens dépend du contexte dialogique et de l'environnement immédiat, comme "prends ça" ou "mets-le là-bas". Les expériences montrent que cette ambiguïté fait chuter le taux de succès des planificateurs jusqu'à 36,9 points de pourcentage. L'analyse des cas d'échec révèle que la majorité provient d'objets manquants dans les plans générés : le modèle ne résout pas correctement la référence et omet l'objet cible de la séquence d'actions. Ce résultat est significatif pour les intégrateurs et les équipes qui déploient des robots en environnement non contrôlé. La quasi-totalité des benchmarks existants, et donc des pipelines de planification actuels, supposent des instructions claires et structurées, ce qui correspond à un utilisateur expert. Or, les populations prioritaires pour la robotique de service (personnes âgées, enfants, opérateurs non formés) sont précisément celles qui formulent des instructions les plus ambiguës. La dégradation mesurée n'est pas marginale : un écart de 37 points sur le taux de succès représente un planificateur fonctionnel en labo qui devient inutilisable en conditions réelles. Le papier souligne également que les approches classiques d'atténuation, prompts enrichis, chaînes de pensée (chain-of-thought), apprentissage en contexte (in-context learning), ne suffisent pas à combler cet écart. Pour y répondre, les auteurs proposent une méthode appelée "task-oriented context cognition" : avant de générer le plan d'action, le système produit explicitement une instruction reformulée et désambiguïsée à partir du contexte environnemental et dialogique. Cette approche atteint l'état de l'art sur REI-Bench en surpassant les baselines précitées. Le benchmark s'inscrit dans un effort plus large de la communauté pour combler le fossé entre performances en simulation et déploiement réel, un problème central pour des acteurs comme Boston Dynamics, Agility Robotics ou les startups européennes telles qu'Enchanted Tools, dont les robots humanoïdes devront interagir avec des utilisateurs non techniques. Les prochaines étapes naturelles seraient d'intégrer REI-Bench dans les pipelines d'évaluation de modèles VLA (vision-language-action) comme pi0 ou OpenVLA, où la résolution de références visuelles et linguistiques est un point de friction connu.

UEL'approche de désambiguïsation proposée (task-oriented context cognition) est directement applicable aux équipes européennes développant des robots de service pour utilisateurs non techniques, notamment les startups comme Enchanted Tools dont les humanoïdes devront gérer des instructions vagues d'opérateurs non formés.

RecherchePaper
1 source
IA incarnée en action : retour du congrès SAE World 2026 sur la sécurité, la confiance, la robotique et le déploiement réel
9arXiv cs.RO 

IA incarnée en action : retour du congrès SAE World 2026 sur la sécurité, la confiance, la robotique et le déploiement réel

Lors du SAE World Congress 2026, un panel intitulé "Embodied AI in Action" a réuni des experts issus de l'automobile, de la robotique, de l'intelligence artificielle et de l'ingénierie de la sécurité pour faire le point sur le déploiement réel des systèmes d'IA incarnée. Le compte rendu de cette session, publié sous forme de livre blanc (arXiv:2605.10653), couvre trois grandes familles de systèmes : les véhicules autonomes, les robots mobiles et les machines industrielles autonomes. Contrairement à une annonce produit, ce document n'avance pas de métriques de performance spécifiques, payload, cycle time, taux de déploiement, mais synthétise le consensus d'experts sur les conditions nécessaires à un déploiement industriel fiable. Le message central est explicite : l'IA incarnée quitte les labos et entre dans des environnements opérationnels réels, avec toutes les contraintes que cela implique. Ce changement de statut, du prototype au système déployé, est précisément ce qui rend ce document pertinent pour les intégrateurs et les décideurs B2B. Le panel souligne que l'IA incarnée doit être traitée comme un défi systémique complet : rigueur d'ingénierie, gouvernance du cycle de vie, conception centrée utilisateur, et standards réglementaires encore en construction. Ce n'est pas une position nouvelle, mais le fait qu'elle émerge d'un consensus d'acteurs industriels, et non d'un seul laboratoire de recherche, signale que le secteur commence à s'aligner sur un cadre commun. La question de la confiance (trust) et de la sûreté opérationnelle est présentée comme aussi déterminante pour le succès long terme que les avancées techniques en elles-mêmes, ce qui tranche avec les discours purement axés sur les capacités des modèles. Le SAE (Society of Automotive Engineers) est l'organisation qui a défini les niveaux d'autonomie (L0 à L5) devenus la référence industrielle mondiale, son implication dans le cadrage de l'IA incarnée n'est donc pas anodine. Ce livre blanc s'inscrit dans une série d'initiatives de standardisation qui se multiplient depuis 2024, portées aussi par l'ISO, l'IEEE et l'UE dans le cadre de l'AI Act. Sur le plan concurrentiel, les géants du secteur, Boston Dynamics (Spot, Atlas), Figure AI (Figure 03), Tesla (Optimus), Agility Robotics (Digit), avancent chacun leur propre cadre de certification. Des acteurs européens comme Enchanted Tools ou Wandercraft sont concernés par ces évolutions réglementaires. Les prochaines étapes probables : la formalisation de standards sectoriels et des exigences de validation formelle pour les systèmes déployés en environnement humain partagé.

UELes acteurs européens comme Enchanted Tools et Wandercraft seront directement soumis aux standards de sécurité et de validation formelle qui émergent de ces initiatives SAE/ISO/IEEE, en convergence avec les exigences de l'AI Act pour les systèmes d'IA incarnée déployés en environnement humain partagé.

RegulationReglementation
1 source
IA incarnée : conditionnement géométrique explicite des escaliers pour une locomotion humanoïde robuste
10arXiv cs.RO 

IA incarnée : conditionnement géométrique explicite des escaliers pour une locomotion humanoïde robuste

Des chercheurs ont publié sur arXiv (2605.09944) un cadre de conditionnement géométrique explicite pour la montée d'escaliers par robot humanoïde. Le système extrait trois paramètres compacts depuis la perception : la hauteur de marche, la profondeur de marche, et l'angle de lacet courant par rapport au cap du robot. Ces paramètres conditionnent directement une politique de locomotion entraînée par Proximal Policy Optimization (PPO), permettant une modulation proactive de la hauteur d'enjambée et des caractéristiques de foulée selon la géométrie de l'escalier. Validé sur le Unitree G1, humanoïde à 23 degrés de liberté de Unitree Robotics, le système a enchaîné 33 marches consécutives en extérieur sans défaillance lors des expériences en conditions réelles. Des tests en simulation confirment par ailleurs une généralisation à des hauteurs de marches hors de la distribution d'entraînement. L'intérêt de l'approche tient au choix de représentations explicites et interprétables plutôt que des encodages latents haute dimension. Les politiques de locomotion actuelles s'appuient généralement sur du feedback proprioceptif aveugle ou des représentations implicites du terrain, ce qui limite leur capacité à anticiper les ajustements de gait face à des géométries non vues, problème central du sim-to-real gap. En conditionnant la politique sur des paramètres lisibles par un ingénieur, le système peut moduler proactivement la hauteur d'enjambée avant le contact, là où une représentation opaque réagirait après coup. Pour un intégrateur ou un COO logistique, cela se traduit par une robustesse prédictive accrue dans des environnements réels non maîtrisés, sans instrumentation supplémentaire des escaliers. Le Unitree G1, commercialisé depuis 2024 à partir de 16 000 USD, s'est imposé comme plateforme de référence pour la recherche en locomotion humanoïde grâce à sa disponibilité et son prix d'accès. Unitree concurrence directement Agility Robotics (Digit), Boston Dynamics (Atlas) et des startups comme Figure ou 1X sur la capacité à opérer dans des espaces tertiaires et industriels non modifiés. La traversée d'escaliers reste un verrou opérationnel clé pour les déploiements logistiques et de services, segment où des acteurs européens comme Wandercraft et Enchanted Tools opèrent sur des créneaux voisins mais distincts. L'article, soumis en preprint sans revue par les pairs à ce stade, ne fournit pas de comparaison quantitative avec d'autres politiques sur le même matériel, ce qui limite l'évaluation rigoureuse des gains réels.

UELa traversée d'escaliers étant un verrou opérationnel clé pour les déploiements en espaces non modifiés, cette avancée fixe un niveau de référence que des acteurs européens comme Wandercraft et Enchanted Tools devront intégrer dans leur feuille de route locomotion.

RecherchePaper
1 source
Tirer parti des échecs : apprentissage adaptatif pour les modèles vision-langage-action (VLA)
11arXiv cs.RO 

Tirer parti des échecs : apprentissage adaptatif pour les modèles vision-langage-action (VLA)

Les modèles Vision-Language-Action (VLA), qui combinent perception visuelle, instructions en langage naturel et génération de commandes motrices, dominent la recherche en manipulation robotique généraliste. Leur faiblesse structurelle : entraînés exclusivement sur des démonstrations réussies par clonage comportemental, ils deviennent cassants dès qu'une erreur d'exécution les place hors distribution, les erreurs se cumulant jusqu'à des états non récupérables. Des chercheurs proposent sur arXiv (2605.08434, mai 2026) AFIL (Adaptive Failure-Informed Learning), un framework qui intègre les trajectoires d'échec comme signal de guidage négatif dans les politiques VLA diffusion-based. AFIL exploite un VLA pré-entraîné pour générer automatiquement des rollouts échoués en ligne, sans annotation manuelle ni supervision humaine, puis entraîne deux générateurs d'actions parallèles (Dual Action Generators, DAG) partageant un backbone vision-langage commun pour un surcoût paramétrique modeste. À l'inférence, le DAG dédié aux échecs oriente la génération loin des zones à risque, avec une force de guidage proportionnelle à la distance entre distributions de succès et d'échec à chaque étape de diffusion. Les expériences sur des tâches courte et longue portée, en domaine et hors domaine, montrent des gains constants en taux de succès face aux baselines VLA existants. Ce résultat touche un point critique du déploiement industriel : Pi-0 (Physical Intelligence), GR00T N2 (NVIDIA) et OpenVLA partagent cette vulnérabilité inhérente au behavioral cloning pur, où l'absence de signal correctif laisse le robot sans mécanisme de récupération. AFIL se distingue parce qu'il ne requiert ni données d'échec labellisées ni boucle de retour humaine, ce qui le rend potentiellement scalable pour des pipelines de production à grande échelle. Sa robustesse hors domaine est particulièrement pertinente pour les intégrateurs industriels qui déploient des robots dans des environnements variables non couverts par les jeux d'entraînement. Le travail s'inscrit dans la vague des politiques diffusion-based initiée par Diffusion Policy (Chi et al., 2023), que Physical Intelligence a popularisée avec Pi-0 et que suivent de près des acteurs européens comme Enchanted Tools, dont le robot humanoïde Mirokaï est développé en France. Face à la fragilité du behavioral cloning, des approches concurrentes coexistent : DAgger (agrégation de données avec supervision interactive), apprentissage par renforcement, ou récupération par planification symbolique. AFIL se positionne comme une solution à intégration native dans le processus de diffusion, sans rupture architecturale. L'article reste une prépublication arXiv, sans évaluation par les pairs ni déploiement terrain annoncé.

UEEnchanted Tools (Paris), dont le robot Mirokaï repose sur des politiques diffusion-based similaires, est directement concernée par cette avancée qui pourrait renforcer la robustesse de ses pipelines VLA sans rupture architecturale.

💬 Le behavioral cloning pur, c'est élégant sur le papier, et fragile dès le premier écart en conditions réelles. Ce qui est malin dans AFIL, c'est qu'il génère lui-même les données d'échec, sans annotation humaine, ce qui rend ça scalable sans exploser le budget data. Les gens d'Enchanted Tools, qui bossent sur exactement ce type de politiques diffusion-based avec Mirokaï, ont matière à creuser.

IA physiqueOpinion
1 source
AffordSim : un générateur de données évolutif et un benchmark pour la manipulation robotique guidée par les affordances
12arXiv cs.RO 

AffordSim : un générateur de données évolutif et un benchmark pour la manipulation robotique guidée par les affordances

AffordSim est un générateur de données simulées et benchmark pour la manipulation robotique consciente des affordances, publié en preprint sur arXiv en mai 2026 (référence 2604.11674). Le système répond à un problème structurel : les estimateurs de préhension génériques optimisent la stabilité sans logique de tâche et sélectionnent souvent la mauvaise zone fonctionnelle de l'objet, tandis que les annotations manuelles de contact doivent être réécrites pour chaque nouvel objet et chaque nouvelle tâche. AffordSim intègre la prédiction d'affordances 3D à vocabulaire ouvert dans un pipeline de simulation : à partir d'une instruction en langage naturel, il synthétise la scène, localise les régions fonctionnelles pertinentes sur les surfaces d'objets (la poignée d'une casserole, le bouton d'un tiroir), échantillonne des prises conditionnées à ces régions, puis sélectionne les trajectoires exécutables par planification de mouvement. La randomisation de pose, texture, éclairage et bruit d'image est intégrée pour favoriser le transfert sim-to-real. Le benchmark couvre 50 tâches, cinq embodiments robotiques distincts et plus de 500 objets rigides et articulés. Les politiques VLA (Vision-Language-Action) entraînées sur ces données transfèrent zéro-shot vers un Franka FR3 réel avec 24 % de succès moyen, sans aucun fine-tuning sur données physiques. La zone fonctionnelle d'un objet, l'affordance, est précisément le point de défaillance ignoré par les benchmarks de manipulation génériques : saisir le mauvais endroit rend l'action aval impossible quel que soit le planificateur. AffordSim atteint 93 % du taux de succès des annotations manuelles sur les tâches critiques d'affordance, et 89 % sur les tâches composites difficiles, ce qui valide l'annotation automatisée comme substitut crédible à l'annotation humaine à grande échelle. Pour les équipes développant des modèles de fondation robotique ou des politiques VLA, cela réduit drastiquement le coût de génération de données diversifiées. Le score de 24 % en zero-shot reste modeste, mais il constitue une preuve de principe importante : un pipeline entièrement simulé peut produire des politiques opérationnelles sur matériel réel, condition nécessaire à un déploiement industriel scalable. AffordSim s'inscrit dans la vague des générateurs de données synthétiques pour la manipulation, aux côtés de RoboGen, GenSim et des pipelines Nvidia Isaac. Le Franka FR3, bras académique de référence vendu autour de 15 000 euros, est l'unique plateforme réelle testée, ce qui limite la portée des conclusions hors de ce contexte de laboratoire. Les modèles de fondation robotique comme pi0 (Physical Intelligence) ou OpenVLA constituent le terrain applicatif naturel de cet outil. En Europe, des équipes comme le LAAS-CNRS à Toulouse et des startups comme Enchanted Tools (Paris, robots manipulateurs expressifs) pourraient exploiter ce type de générateur pour réduire leur dépendance aux plateformes de données propriétaires américaines. Ce travail restant un preprint non encore évalué par les pairs, les métriques avancées devront être confirmées lors d'une soumission en conférence (CoRL, RSS ou ICRA).

UELes équipes européennes comme le LAAS-CNRS (Toulouse) et Enchanted Tools (Paris) pourraient exploiter AffordSim pour réduire leur dépendance aux plateformes de données propriétaires américaines dans le développement de politiques VLA.

RechercheOpinion
1 source
RLWRLD lance RLDX-1, un modèle fondation centré sur la dextérité pour mains robotiques
13Robotics Business Review 

RLWRLD lance RLDX-1, un modèle fondation centré sur la dextérité pour mains robotiques

La startup sud-coréenne RLWRLD a présenté la semaine dernière RLDX-1, un modèle de fondation conçu spécifiquement pour les mains robotiques à haut nombre de degrés de liberté (DoF). L'architecture multi-flux couvre les configurations single-arm, dual-arm et humanoïde, et intègre l'ensemble du cycle robotique : collecte de données, entraînement et déploiement. RLWRLD structure ses travaux autour d'un benchmark maison, DexBench, qui organise les défis industriels en cinq régimes de dextérité : diversité de préhension, précision spatiale, précision temporelle, précision de contact, et conscience du contexte. Pour chaque régime, un module dédié : un VLM (vision language model) fin-tuné sur des questions-réponses spatiales pour la localisation précise des contacts ; un module de mouvement extrayant des correspondances visuelles spatio-temporelles pour anticiper les objets en déplacement sur convoyeur ; un module physique qui traite couple et force tactile comme des flux séparés, permettant de prédire les transitions de contact avant qu'elles n'arrivent. Les données d'entraînement combinent téleopération synthétique et démonstrations humaines pour couvrir la manipulation en main (in-hand dexterity) inaccessible à la téléopération standard. L'enjeu est concret : les robots échouent encore sur des tâches en apparence banales comme verser du café depuis une cafetière qui s'allège, attraper un objet en mouvement sur un convoyeur, ou visser un écrou hexagonal avec des doigts. Ce "dernier kilomètre" de l'automatisation industrielle est précisément la cible de RLDX-1. L'architecture multi-flux, où chaque modalité (couple haute fréquence, frames vidéo, mémoire d'état) dispose de sa propre capacité gradient, répond à un problème réel d'optimisation : dans un transformer classique, la modalité dominante absorbe toute la capacité au détriment des autres. Cela dit, les affirmations de RLWRLD sur des performances "état de l'art" restent à valider indépendamment -- les vidéos de démonstration ne constituent pas des métriques de taux de succès en conditions industrielles réelles, et aucun cycle time chiffré n'est communiqué. RLWRLD s'inscrit dans une vague de startups cherchant à combler le fossé entre modèles d'action généralistes et déploiements industriels réels. Elle affronte des acteurs aux ressources bien supérieures : Physical Intelligence avec son modèle pi0 (fondée par d'anciens de Google et Stanford, 400 M$ levés en 2024), Figure AI avec son humanoïde Figure 03, ou encore Agility Robotics et 1X. En Europe, des acteurs comme Enchanted Tools (humanoïde Mirokaï) ou Wandercraft se positionnent sur la mobilité et l'assistance plutôt que sur la manipulation haute-dextérité, laissant ce créneau industriel quasi exclusivement aux acteurs américains et asiatiques. Aucun déploiement pilote chez un client industriel n'a été annoncé à ce stade par RLWRLD.

IA physiqueOpinion
1 source
Conception de robots logistiques hospitaliers : les clés du succès au Robotics Summit
14Robotics Business Review 

Conception de robots logistiques hospitaliers : les clés du succès au Robotics Summit

Le Robotics Summit & Expo, qui se tient les 27 et 28 mai 2026 à Boston, accueillera une session consacrée à la conception de robots logistiques hospitaliers, programmée à 16h15 le premier jour de l'événement. Trois praticiens y interviendront : David Crabb, fondateur et CEO de Rovex Technologies, médecin urgentiste certifié et informaticien clinique formé à l'Université de Floride, qui a quitté ses fonctions hospitalières en 2025 pour se consacrer à sa startup robotique ; Spencer Krause, président et CEO de SKA Robotics, ingénieur roboticien avec plus de 25 ans d'expérience, diplômé de Carnegie Mellon en développement de systèmes robotiques, ayant travaillé pour plusieurs entreprises du Fortune 100 ; et Peter Seiff, CEO de ST Engineering Aethon, acteur historique du secteur depuis 20 ans, dont les robots assurent actuellement la distribution de repas et de linge dans de nombreux hôpitaux américains. Seiff cumule plus de 30 ans dans la robotique de santé, avec des passages chez Automated Healthcare et McKesson. Ce panel illustre une réalité souvent éclipsée par les démonstrations de robots chirurgicaux ou de rééducation : la logistique hospitalière automatisée est un marché mature, déployé à grande échelle, avec des acteurs comme Aethon dont les flottes sont opérationnelles dans des établissements réels depuis deux décennies. Le fait que trois profils aussi différents, un médecin devenu entrepreneur, un ingénieur systèmes venu du terrain industriel, et un exécutif rompu aux acquisitions dans le healthcare, partagent la même scène signale que la conception de robots hospitaliers réclame une convergence rare entre contraintes cliniques, ingénierie mécanique et viabilité commerciale. Pour les intégrateurs et décideurs B2B, c'est un signal que le segment "indoor hospital AMR" dépasse le stade du pilote et exige désormais une approche produit structurée. ST Engineering Aethon est la référence de longévité dans ce segment : fondée au début des années 2000, rachetée par ST Engineering (groupe singapourien coté), la société a traversé plusieurs cycles d'acquisition tout en maintenant ses déploiements actifs. Ses concurrents directs sur la logistique intra-hospitalière incluent Swisslog (filiale KUKA), Omnicell côté pharmacie automatisée, et des entrants plus récents comme Savioke ou Keenon Robotics sur le créneau de la livraison de plateau-repas. Du côté français, Enchanted Tools (robot Miroka) positionne également ses solutions vers les environnements de soin, même si son déploiement hospitalier à grande échelle reste à démontrer. Le Robotics Summit, co-organisé par The Robot Report et WTWH Media, rassemble plus de 70 intervenants confirmés, dont des représentants de Tesla, Toyota Research Institute, PickNik Robotics et Robust AI, avec plus de 50 sessions réparties sur des tracks IA, design, technologies habilitantes, santé et logistique.

UELa mention d'Enchanted Tools (FR) comme entrant potentiel sur la logistique hospitalière et de Swisslog/KUKA (DE) comme concurrent établi signale que ce segment AMR intra-hospitalier, en phase de maturité aux États-Unis, constitue un marché à surveiller pour les acteurs européens.

IndustrielActu
1 source
CKT-WAM : transfert de connaissances contextuelles efficient entre modèles d'action du monde
15arXiv cs.RO 

CKT-WAM : transfert de connaissances contextuelles efficient entre modèles d'action du monde

Des chercheurs ont déposé le 8 mai 2026 sur arXiv (2605.06247) CKT-WAM, un cadre de transfert de connaissances paramètre-efficient entre modèles d'action du monde (WAMs, World Action Models). L'approche résout un verrou persistant : faire bénéficier un WAM étudiant des représentations apprises par un WAM enseignant plus capable, sans réentraîner l'ensemble du réseau. Techniquement, CKT-WAM extrait des états cachés intermédiaires de l'enseignant, les compresse via une attention croisée à requêtes apprenables (LQCA), les transforme à travers un adaptateur généralisé toujours actif et des adaptateurs spécialisés à activation parcimonieuse, puis injecte ce contexte compact dans les embeddings textuels de conditionnement de l'étudiant. Sur le benchmark LIBERO-Plus, le système atteint 86,1 % de taux de réussite global en n'entraînant que 1,17 % des paramètres du modèle étudiant, approchant les performances du fine-tuning complet. En conditions réelles, quatre tâches de manipulation longue portée ont été évaluées avec 83,3 % de réussite moyenne, résultat présenté comme meilleur de la catégorie par les auteurs. Le code est disponible sur GitHub (YuhuaJiang2002/CKT-WAM). L'enjeu industriel est direct : affiner un WAM ou un VLA (Vision-Language-Action model) de taille fondationnelle exige des ressources GPU considérables ; descendre à 1,17 % de paramètres entraînables tout en conservant des performances comparables ouvre une voie concrète pour les équipes R&D à ressources limitées. La démonstration d'une généralisation zero-shot suggère que le contexte transféré encode des capacités motrices transposables au-delà des tâches d'entraînement, ce qui valide partiellement l'hypothèse d'une composabilité des modèles robotiques génératifs. Deux réserves s'imposent toutefois : les quatre scénarios réels évalués restent trop peu nombreux pour conclure à une robustesse hors laboratoire, et les conditions d'évaluation (définition du succès, variabilité environnementale, sélection des vidéos) ne sont pas détaillées dans le preprint, ce qui limite la portée des chiffres annoncés. CKT-WAM s'inscrit dans la vague actuelle des modèles robotiques fondationnels interopérables, aux côtés de Pi-0 (Physical Intelligence), GR00T N2 (NVIDIA) et Helix (Figure AI). L'idée de capitaliser sur des modèles enseignants hétérogènes plutôt que de réentraîner from scratch rejoint les travaux de distillation de connaissances explorés en académique comme en industrie, dans un contexte où la course aux WAMs s'accélère significativement depuis 2025. En Europe, Enchanted Tools et Wandercraft développent des architectures de contrôle avancées, bien que moins orientées WAMs dans leurs publications récentes. La suite logique serait une validation sur des benchmarks plus larges comme DROID ou Open-X Embodiment, et des expérimentations terrain pour confirmer la robustesse réelle du transfert en dehors des environnements contrôlés.

UELes équipes R&D européennes travaillant sur des VLAs à ressources GPU limitées (dont Enchanted Tools et Wandercraft) pourraient exploiter ce framework pour réduire drastiquement le coût d'affinage de modèles fondationnels robotiques, dès validation sur des benchmarks plus larges.

💬 1,17 % des paramètres entraînés pour des perfs comparables au fine-tuning complet, c'est le genre de chiffre qui change les plans de roadmap. Les équipes qui rêvaient de WAMs génératifs mais bloquaient sur le budget GPU vont regarder ça de près. Bon, quatre tâches réelles c'est maigre pour crier victoire, mais l'axe est le bon.

IA physiqueOpinion
1 source
Le robot humanoïde reçoit une tête avec écran OLED incurvé pour améliorer son efficacité
16Interesting Engineering 

Le robot humanoïde reçoit une tête avec écran OLED incurvé pour améliorer son efficacité

LG Display a présenté au SID Display Week 2026 de Los Angeles un écran P-OLED de 7,2 pouces conçu spécifiquement pour les robots humanoïdes, marquant la première démonstration publique d'un tel composant par l'entreprise coréenne. Le panneau repose sur la troisième génération de la plateforme Tandem OLED de LG, rebaptisée "Tandem OLED" pour les usages robotiques, et utilise un substrat plastique en polyimide plutôt que du verre, ce qui lui confère une flexibilité suffisante pour épouser les surfaces courbes d'un visage mécanique. L'interface affiche des informations fonctionnelles, niveau de batterie, météo, mode veille, calendrier, salutations, tandis que la majorité de l'écran reste éteinte lors des démonstrations, exploitant le principe OLED où chaque pixel s'éteint indépendamment. Résultat : la troisième génération Tandem réduit la consommation énergétique de 18 % par rapport à la génération précédente, limitant la dissipation thermique dans un châssis où les composants électroniques sont sensibles à la chaleur. Le panneau atteint 1 000 nits de luminosité, opère entre -30 °C et 85 °C, et est qualifié pour plus de 15 000 heures de fonctionnement, des spécifications empruntées à la filière OLED automobile du groupe. L'enjeu industriel de cette annonce va au-delà de l'esthétique : un écran facial n'est pas qu'un gadget de communication HRI (human-robot interaction), c'est un composant thermique, énergétique et mécanique à part entière. Pour les intégrateurs de robots de service, la capacité à afficher un statut opérationnel sans drain notable sur la batterie, tout en résistant aux contraintes thermiques d'un environnement industriel ou domestique, représente un critère de sélection concret. La flexibilité du substrat ouvre par ailleurs la voie à des designs de carrosserie moins contraints par la géométrie plane des dalles rigides. Il est toutefois utile de noter que LG Display parle pour l'instant d'un prototype présenté en salon : aucun engagement de production en série ni de fenêtre de disponibilité commerciale n'a été communiqué. Ce dévoilement s'inscrit dans la stratégie plus large de LG Electronics, qui a lancé le robot humanoïde LG CLOiD en janvier 2026 au CES de Las Vegas. CLOiD embarque deux bras articulés à 7 degrés de liberté chacun, cinq doigts à actionnement indépendant, une base mobile autonome et une tête-hub équipée de caméras, capteurs et d'une interface IA reposant sur des modèles VLM (Vision Language Model) et VLA (Vision Language Action), entraînés sur plusieurs dizaines de milliers d'heures de données de tâches domestiques. LG a également annoncé LG Actuator AXIUM, une plateforme d'actionneurs modulaires destinée aux robots de service et aux appareils électroménagers intelligents. Sur ce segment, LG se positionne en concurrent direct de Samsung Robotics, Boston Dynamics (Spot/Atlas chez Hyundai) et des acteurs spécialisés comme Enchanted Tools en France, qui développe Miroki pour des usages hospitaliers et de services.

HumanoïdesOpinion
1 source
SF Express, Sequoia China et IDG investissent dans une licorne en robots humanoïdes issue de Tsinghua
17Pandaily 

SF Express, Sequoia China et IDG investissent dans une licorne en robots humanoïdes issue de Tsinghua

Wujie Power (无界动力), spin-off de l'université Tsinghua spécialisé dans les robots humanoïdes à usage général, a bouclé un tour de financement impliquant des investisseurs chinois et internationaux de premier rang. Ce tour est co-dirigé par Envision Group et le Fonds d'investissement en intelligence artificielle de Pékin, avec la participation récurrente de Sequoia China, Linear Capital, Hillhouse Ventures, Baidu Ventures et Yunshan Capital. La société est par ailleurs sur le point de clôturer une tranche additionnelle dite "angel+++" auprès de capitaux américains et en renminbi, portant le financement total au stade angel à plus de 200 millions de dollars. Ce tour intervient dans la continuité d'un tour stratégique d'un milliard de yuans finalisé en mars 2026. Simultanément, StarTrace (星动纪元), autre constructeur d'humanoïdes issu du même écosystème d'investisseurs, a clôturé un tour dépassant également 200 millions de dollars. Le géant de la logistique SF Express figure parmi les nouveaux entrants, rejoignant le capital à l'intersection de la robotique et de l'automatisation de la chaîne d'approvisionnement. L'annonce ne précise ni la valorisation exacte ni les spécifications techniques du robot : pas de charge utile, de degrés de liberté ou de cadence opérationnelle communiqués. Ces levées consécutives confirment l'appétit persistant du capital-risque chinois pour l'IA incarnée (embodied AI), mais signalent surtout un mouvement stratégique côté industrie. La présence de SF Express au capital est un indicateur concret : un opérateur logistique de cette envergure n'engage pas plusieurs dizaines de millions sans anticiper un horizon d'intégration dans ses entrepôts ou centres de tri. Pour les décideurs B2B, cela suggère que la logistique reste le premier terrain de déploiement visé par les humanoïdes chinois en 2026-2027, avant le manufacturing. Les deux tours simultanés (Wujie Power + StarTrace) indiquent également une stratégie de portefeuille coordonnée, plutôt qu'une conviction isolée sur un seul acteur. Wujie Power s'inscrit dans la vague de spin-offs académiques issus de Tsinghua ces deux dernières années, aux côtés d'acteurs comme Unitree Robotics, Agibot et UBTECH, qui ont tous intensifié leurs levées et annonces produit en 2025-2026. Face à eux, les constructeurs occidentaux Figure AI, Agility Robotics (désormais dans l'orbite d'Amazon) et 1X Technologies avancent sur leurs propres déploiements, tandis qu'en Europe Enchanted Tools et Wandercraft restent à plus petite échelle de capitalisation. La course sino-américaine sur l'humanoïde s'accélère avec des capitaux publics et privés engagés des deux côtés. Les prochaines étapes probables pour Wujie Power sont la clôture de la tranche angel+++ et l'annonce de premiers pilotes industriels, possiblement en logistique avec SF Express en client-investisseur.

UELa concentration de plus de 400 M$ sur deux tours simultanés chez des constructeurs d'humanoïdes chinois accentue l'écart de financement avec Enchanted Tools et Wandercraft, fragilisant le positionnement concurrentiel européen à moyen terme.

Chine/AsieOpinion
1 source
ConsisVLA-4D : vers une meilleure cohérence spatiotemporelle pour la manipulation robotique avec un modèle VLA
18arXiv cs.RO 

ConsisVLA-4D : vers une meilleure cohérence spatiotemporelle pour la manipulation robotique avec un modèle VLA

Une équipe de recherche publie ce 7 mai 2026 ConsisVLA-4D (arXiv:2605.05126), un framework unifié pour la manipulation robotique qui cherche à résoudre deux angles morts structurels des modèles Vision-Language-Action actuels : la perception spatiale 3D et le raisonnement temporel 4D. L'architecture repose sur trois modules complémentaires. Le premier, CV-Aligner, filtre les régions pertinentes à l'instruction en cours et aligne les identités d'objets entre plusieurs points de vue, assurant une cohérence sémantique inter-caméras. Le second, CO-Fuser, élimine les ambiguïtés de relations spatiales entre objets via des représentations latentes compactes, sans recourir à des capteurs de profondeur dédiés. Le troisième, CS-Thinker, combine les tokens sémantiques de CV-Aligner et les tokens géométriques de CO-Fuser pour construire une représentation implicite des dynamiques locales et globales de la scène, permettant un raisonnement visuel continu au fil de l'exécution. Les auteurs rapportent des gains de 21,6 % sur le benchmark LIBERO et de 41,5 % en environnement réel par rapport à OpenVLA, avec des accélérations d'inférence respectives de 2,3x et 2,4x. Le code est publié en open source. Ces résultats sont significatifs pour le débat, toujours ouvert dans le secteur, sur la capacité des VLA à passer de la démonstration contrôlée au déploiement réel. Le gain le plus notable est celui en conditions réelles (+41,5 % vs +21,6 % en simulation), ce qui suggère que la cohérence spatiotemporelle adresse précisément le sim-to-real gap que d'autres architectures peinent à combler. L'absence de capteur de profondeur dédié est également un point concret pour les intégrateurs industriels : réduire la dépendance à des capteurs supplémentaires diminue le coût de déploiement et la surface de défaillance. L'accélération d'inférence de 2,3x à 2,4x, si elle se confirme dans des cycles de manipulation industriels (pick-and-place, assemblage), est un argument directement actionnable pour des COO cherchant à calibrer le throughput de cellules robotisées. Il convient toutefois de noter que les métriques sont mesurées contre OpenVLA, qui reste une baseline académique, et non contre des systèmes commerciaux comme pi-0 (Physical Intelligence) ou Helix (Figure), ce qui limite la portée comparative. Les modèles VLA de première génération, dont OpenVLA et RT-2, se sont construits sur des pipelines essentiellement 2D, héritant des architectures vision-langage conçues pour la compréhension d'images statiques. La contrainte de cohérence spatiotemporelle que ConsisVLA-4D formalise est un problème que l'ensemble des acteurs du secteur, Physical Intelligence avec pi-0, DeepMind avec RT-X, et Boston Dynamics sur le plan applicatif, tentent de résoudre par des voies différentes (données de préentraînement massives, retour haptique, diffusion de politiques). Dans le paysage français et européen, des entreprises comme Enchanted Tools et Wandercraft travaillent sur des problématiques adjacentes de contrôle robuste en environnement non structuré, où la perception multi-vue est également un verrou. La prochaine étape logique pour ConsisVLA-4D sera de confronter le framework à des tâches longue-horizon et à des environnements non rigides, deux cas d'usage encore peu couverts par le benchmark LIBERO.

UELes entreprises européennes comme Enchanted Tools et Wandercraft, confrontées au verrou de la perception multi-vue en environnement non structuré, pourraient intégrer le framework open-source ConsisVLA-4D pour renforcer leur contrôle robuste sans capteur de profondeur dédié.

💬 Le gain en conditions réelles (+41,5 %) qui dépasse celui en simulation, c'est le signe que quelque chose de structurel est résolu, pas juste un overfitting sur benchmark. Pas de capteur de profondeur dédié en plus, ce qui change vraiment le calcul pour l'intégration industrielle. Bon, la baseline c'est OpenVLA, pas pi-0, donc on garde les pieds sur terre.

IA physiqueOpinion
1 source
Impression 3D de robots auto-pliants à actionnement passif avec modules fonctionnels intégrés
19arXiv cs.RO 

Impression 3D de robots auto-pliants à actionnement passif avec modules fonctionnels intégrés

Des chercheurs ont soumis sur arXiv (référence 2605.04757, mai 2025) une méthode de fabrication de robots auto-pliants à partir de développés plats imprimés en 3D dans un PLA conducteur. Le principe repose sur des élastiques acheminés à travers des crochets intégrés: en libérant leur énergie mécanique, ils replient la feuille en géométries tridimensionnelles préprogrammées, sans aucun stimulus externe (ni chaleur, ni lumière, ni humidité). L'état plat avant déploiement autorise le positionnement précis de l'électronique et des aimants. Le même substrat sert d'électrode pour la détection tactile capacitive et supporte une palette I/O réutilisable équipée de capteurs Hall et de moteurs ERM (masses excentriques rotatives), assurant la détection d'ancrage et l'actionnement par vibration. L'équipe publie également un modèle analytique fermé qui équilibre rigidité des charnières et moment des élastiques pour prédire les angles de pliage à l'équilibre; validé expérimentalement, ce modèle produit une carte de conception reliant épaisseur de charnière, taille des élastiques et espacement des crochets aux angles cibles. Trois démonstrateurs ont été réalisés: un cube polyédrique illustrant le potentiel pour des collectifs modulaires, un préhenseur déployable, et un doigt à tendons. La fabrication par origami robotique dépendait jusqu'ici de stimuli exogènes: polymères à mémoire de forme activés thermiquement, hydrogels hygroscopiques, ou bilames sous UV. L'approche élastique s'affranchit de ces contraintes en utilisant uniquement du PLA conducteur standard, simplifiant l'industrialisation et réduisant les coûts. Le modèle analytique constitue un apport concret: il transforme la conception de structures pliables d'un processus empirique en démarche prédictive, limitant les itérations de prototypage. La convergence "substrat = électrode = structure mécanique" réduit par ailleurs le nombre de composants discrets, un avantage direct pour les intégrateurs de systèmes modulaires ou de robots à bas coût. Ce travail s'inscrit dans le courant actif de la robotique origami, porté notamment par le Wyss Institute de Harvard et le CSAIL du MIT. La singularité de l'approche tient à l'énergie élastique passive sur PLA conducteur, distincte des voies pneumatiques ou magnétiques couramment explorées. Il s'agit d'un preprint académique sans produit commercialisé ni déploiement annoncé: les trois démonstrateurs restent des preuves de concept. Les prochaines étapes naturelles porteraient sur la durabilité mécanique sur cycles répétés et la mise à l'échelle des collectifs modulaires. En Europe, des acteurs comme Enchanted Tools ou des laboratoires tels que le LIRMM pourraient trouver dans cette méthode de fabrication un levier pertinent pour réduire les coûts de prototypage.

UEDes laboratoires européens comme le LIRMM et des startups comme Enchanted Tools pourraient exploiter cette méthode de fabrication origami passive pour réduire les coûts de prototypage de robots modulaires.

RecherchePaper
1 source
IA incarnée : un compromis nécessaire entre confidentialité et utilité
20arXiv cs.RO 

IA incarnée : un compromis nécessaire entre confidentialité et utilité

Des chercheurs ont publié en mai 2026 sur arXiv (référence 2605.05017) un article de position soutenant que les systèmes d'IA incarnée (Embodied AI, EAI) entrent dans des environnements réels sensibles sans architecture conçue pour gérer la confidentialité de façon systémique. Le problème identifié est structurel : les solutions EAI actuelles optimisent leurs composantes isolément, en quatre étapes distinctes (instruction, perception, planification, interaction), sans prendre en compte leurs interactions en matière de vie privée dans des déploiements haute fréquence où les fuites de données sont souvent irréversibles. Les auteurs proposent SPINE (Secure Privacy Integration in Next-generation Embodied AI), un cadre unifié qui traite la confidentialité comme un signal de contrôle dynamique traversant l'ensemble du cycle de vie du système, et non comme une fonction locale à chaque étape. SPINE intègre une matrice de classification de sensibilité contextuelle multi-critères et a été conceptuellement validé par des études de cas préliminaires en simulation et en conditions réelles. L'enjeu central est architectural : en optimisant chaque étape indépendamment, les concepteurs créent une crise systémique de confidentialité dès le déploiement en environnement sensible. Un robot qui planifie ses déplacements, perçoit son environnement visuel et suit des instructions vocales génère un flux continu de données croisées : plans de logement, routines quotidiennes, visages, conversations. SPINE démontre que des correctifs locaux restent insuffisants face à ce couplage inter-étapes. Pour les intégrateurs et décideurs B2B en secteurs réglementés (santé à domicile, garde d'enfants, industrie), ce cadre propose une grille d'analyse systémique à intégrer en amont de tout déploiement, avant que les fuites ne deviennent impossibles à contenir. Ce travail s'inscrit dans un contexte de multiplication rapide des robots humanoïdes destinés à des environnements non industriels, avec des acteurs comme Figure, 1X Technologies et Boston Dynamics côté américain, et en Europe des entreprises comme Enchanted Tools ou Wandercraft qui positionnent leurs systèmes vers des espaces partagés. Le RGPD impose déjà des obligations strictes sur la collecte de données biométriques et comportementales, mais aucun standard sectoriel spécifique aux EAI n'existe encore. Les auteurs publient leur code sur GitHub (rminshen03/EAIPrivacy\Position) et formulent une invitation explicite à structurer un agenda de recherche autour de systèmes EAI sécurisés et fonctionnels, dont une prochaine étape naturelle serait l'intégration de SPINE dans des pipelines VLA (Vision-Language-Action) existants pour mesurer le coût réel en performance de ces contraintes de confidentialité.

UELe RGPD s'applique directement aux déploiements EAI en Europe et le cadre SPINE offre aux intégrateurs européens (dont Enchanted Tools et Wandercraft) une grille d'analyse systémique pour anticiper la conformité réglementaire avant tout déploiement en environnement sensible.

RechercheOpinion
1 source
OGPO : un affinage complet et efficace des politiques de contrôle génératives
21arXiv cs.RO 

OGPO : un affinage complet et efficace des politiques de contrôle génératives

Un preprint arXiv de mai 2026 (2605.03065) présente OGPO, Off-policy Generative Policy Optimization, un algorithme de fine-tuning par renforcement pour les politiques génératives de contrôle (GCPs) basées sur la diffusion ou le flow matching, paradigme central de modèles comme Pi-0 (Physical Intelligence) ou GR00T N2 (NVIDIA). OGPO propage les gradients à travers l'intégralité du processus génératif via un objectif PPO modifié et maintient des réseaux critiques off-policy pour maximiser la réutilisation des données. Évalué sur des tâches de manipulation multi-tâches, d'insertion haute précision et de contrôle dextère, l'algorithme revendique un état de l'art et serait, selon les auteurs, le premier à fine-tuner des politiques de behavior cloning mal initialisées jusqu'au succès complet sans données expertes dans le replay buffer en ligne. Quatre stabilisateurs pratiques sont introduits : success-buffer regularization, conservative advantages, régularisation χ², et réduction de la Q-variance. Le fine-tuning RL des politiques génératives est l'un des principaux verrous pour le déploiement industriel de la robotique. Le behavior cloning pré-entraîne des modèles polyvalents sur de larges corpus de démonstrations, mais plafonne en deçà des taux de succès requis pour l'assemblage de précision ou la manipulation de pièces complexes. L'absence de données expertes dans le replay buffer est stratégiquement importante : un intégrateur adaptant un modèle fondation à une cellule de production spécifique n'a pas à collecter de nouvelles démonstrations coûteuses. Les stabilisateurs introduits adressent directement la sur-exploitation des critiques, mode d'échec documenté qui rendait les approches précédentes instables sur des observations en pixels. Les politiques diffusion pour la robotique ont émergé en 2023 avec Chi et al. (Diffusion Policy), avant d'être étendues au flow matching avec Pi-0 de Physical Intelligence et la famille GR00T de NVIDIA. Le fine-tuning RL de ces architectures avait été tenté avec des méthodes comme DPPO, mais restait limité aux politiques bien initialisées et nécessitait souvent des données expertes. OGPO se positionne comme une approche généraliste applicable à toute GCP. En compétition académique, les laboratoires de Berkeley, CMU et Stanford travaillent sur des problématiques proches. Côté industriel, Physical Intelligence, Boston Dynamics et Figure AI intègrent ce type d'optimisation dans leurs pipelines, et des acteurs européens comme Enchanted Tools (France) opèrent dans cet espace. La suite logique est une validation à plus grande échelle sur hardware réel et une extension aux architectures VLA (Vision-Language-Action) multimodales.

UEEnchanted Tools (France) opère sur des architectures similaires et pourrait intégrer OGPO pour affiner ses politiques de contrôle sans collecte de démonstrations expertes supplémentaires.

💬 Le vrai verrou, c'était ça : fine-tuner sans avoir à collecter de nouvelles démos expertes, parce que personne n'a le budget pour ça quand on adapte un modèle fondation à une cellule de prod spécifique. OGPO le fait, sur des politiques diffusion comme Pi-0 ou GR00T, avec des stabilisateurs intégrés pour que ça ne s'effondre pas en cours de training sur des observations en pixels. Reste à tenir sur du hardware réel à grande échelle, mais comme porte d'entrée vers la robotique de précision sans données expertes, c'est le genre de papier qu'on attendait.

IA physiqueOpinion
1 source
Jiao : combler le fossé entre isolation et personnalisation en robotique à criticité mixte
22arXiv cs.RO 

Jiao : combler le fossé entre isolation et personnalisation en robotique à criticité mixte

Des chercheurs ont publié le 6 mai 2026 sur arXiv (réf. 2605.03641) une architecture baptisée Jiao, conçue pour résoudre un problème structurel en robotique grand public : faire cohabiter sur un même processeur multicoeur un contrôle temps réel critique, des pipelines de perception et des applications utilisateur. L'approche repose sur trois composants : un "Safe IO Cell" assurant un override matériel d'urgence, un "Parameter Synchronization Service" encapsulant la complexité inter-domaines, et un "Safety Communication Layer" aligné sur la norme IEC 61508. Évaluée sur plateforme ARM Cortex-A55, l'architecture réduit la gigue de période (cycle-period jitter) de 84,5 %, ramenant l'erreur de timing en queue de distribution (p99) de 69,0 μs à 7,8 μs, tout en éliminant la totalité des excursions supérieures à 50 μs. Le problème central que Jiao cherche à résoudre est ce que les auteurs appellent l'"expertise asymmetry" : les hyperviseurs à partitionnement statique, issus de l'automobile via AUTOSAR, offrent une isolation matérielle robuste, mais leur configuration suppose une maîtrise système que les développeurs d'applications robotiques n'ont généralement pas. Cette friction bloque l'adoption des architectures à criticité mixte dans les robots de service et domestiques. Les résultats de timing sont concrets : une gigue p99 sous 8 μs est une condition souvent nécessaire pour les boucles de contrôle bas niveau opérant typiquement à 1 kHz. Si ces chiffres se confirment en production, l'architecture permettrait à un intégrateur de faire tourner simultanément un RTOS pour la sécurité fonctionnelle et un Linux généraliste pour les applicatifs, sans compromettre les garanties temporelles. Ce travail s'inscrit dans la migration des architectures embarquées automobiles vers la robotique mobile et les cobots. L'ARM Cortex-A55, cible du benchmark, équipe de nombreuses plateformes embarquées milieu de gamme, ce qui donne une pertinence pratique aux résultats. Il s'agit d'un preprint de recherche, pas d'un produit commercialisé : aucun déploiement ni partenariat industriel n'est annoncé. Les suites logiques seraient une validation sur des stacks robot réels comme ROS 2 ou microROS, et une certification IEC 61508 SIL 2 ou 3. Aucun acteur européen n'est mentionné dans les travaux, bien que des sociétés comme Wandercraft ou Enchanted Tools adressent des problématiques adjacentes de systèmes embarqués à contraintes critiques.

RecherchePaper
1 source
Cadre de commande SDRE hors ligne en trois étapes pour reproduire le mouvement humain sur un robot bipède suspendu
23arXiv cs.RO 

Cadre de commande SDRE hors ligne en trois étapes pour reproduire le mouvement humain sur un robot bipède suspendu

Une équipe de recherche a publié sur arXiv (réf. 2506.04680) une stratégie de contrôle en trois étapes permettant à un robot bipède suspendu de reproduire fidèlement des mouvements humains capturés par mocap, avec une erreur quadratique moyenne (RMSE) inférieure à 3 degrés sur l'ensemble des articulations testées. Le pipeline repose d'abord sur un contrôleur SDRE (State-Dependent Riccati Equation) qui génère des trajectoires de couple optimales à partir du modèle dynamique du système bipède. Une deuxième étape produit des séquences de commandes en vitesse et accélération articulaires via une optimisation paramétrée intégrant les contraintes des actionneurs. La troisième étape applique un contrôleur hybride PID-LQR piloté par les données pour minimiser l'écart entre le mouvement cible et celui effectivement exécuté. Le dispositif expérimental est un robot bipède suspendu conçu spécifiquement pour l'évaluation d'exosquelettes anti-gravité, validé sur deux tâches : squat répétitif et marche. L'enjeu est direct pour l'industrie de l'exosquelette : les protocoles d'homologation impliquent aujourd'hui des sujets humains, ce qui introduit des risques de sécurité et complique la reproductibilité des tests. Remplacer le porteur par un robot calibré sur ses propres données de capture de mouvement ouvre la voie à des bancs d'essai systématiques, automatisés et comparables entre laboratoires. La précision annoncée, moins de 3° de RMSE moyen, est suffisante pour valider des algorithmes d'assistance articulaire sur des cycles locomoteurs complets, même si les auteurs ne précisent pas les conditions de charge ni la fréquence de cycle, deux paramètres déterminants pour juger de la transférabilité à des exosquelettes industriels ou médicaux. Le problème de la reproduction de mouvement humain sur robot hétérogène est un verrou classique en robotique de rééducation, aggravé par les différences de cinématique et d'actionnement entre humain et machine. L'approche SDRE, plus flexible que le LQR classique sur systèmes non-linéaires, n'est pas nouvelle mais son association à un raffinement PID-LQR guidé par les données constitue une contribution méthodologique incrémentale. En France, Wandercraft développe l'exosquelette Atalante pour la rééducation neurologique et fait face aux mêmes problématiques de test reproductible ; Pollen Robotics et Enchanted Tools opèrent sur des segments adjacents. Au niveau international, les équipes de Boston Dynamics, Agility Robotics et Apptronik publient sur des défis similaires en sim-to-real pour bipèdes. La prochaine étape logique pour les auteurs serait de valider le framework sur une plateforme non suspendue, condition nécessaire pour que l'approche soit utilisable en certification exosquelette en conditions réelles.

UEWandercraft (Atalante) et d'autres acteurs français de l'exosquelette sont directement concernés : ce framework de test robotisé et reproductible pourrait informer les futurs protocoles d'homologation d'exosquelettes médicaux et industriels en Europe, réduisant le recours à des sujets humains lors des certifications.

ExosquelettesPaper
1 source
Le robot humanoïde AEON s'attaque aux opérations en usine dans une offensive d'autonomie réelle
24Interesting Engineering 

Le robot humanoïde AEON s'attaque aux opérations en usine dans une offensive d'autonomie réelle

La division Robotics d'Hexagon AB, basée à Zurich, et l'entreprise autrichienne Fill Maschinenbau ont annoncé un partenariat pour déployer le robot humanoïde AEON dans les ateliers de Fill à Gurten, en Autriche. Ce pilote cible des tâches de conduite de machines (machine tending), d'inspection et de support opérationnel dans des environnements de production à haute mixité. Point notable : AEON n'est pas un robot bipède, mais adopte une locomotion sur roues complétée par des bras de manipulation, une fusion de capteurs multimodale et une intelligence embarquée sur puce NVIDIA Jetson Orin. Présenté en juin 2025, il avait effectué son premier déploiement industriel en décembre 2025 à l'usine BMW Group de Leipzig, unique référence terrain disponible à ce jour. Ce partenariat met en avant une approche simulation-first que les intégrateurs suivent de près. Hexagon revendique une réduction des cycles d'entraînement de plusieurs mois à quelques semaines grâce à NVIDIA Isaac Sim et Isaac Lab, qui permettent d'acquérir navigation, locomotion et manipulation en environnement virtuel avant tout déploiement réel. Le robot utilise également NVIDIA Isaac GR00T et les outils Mimic pour apprendre à partir de démonstrations humaines et générer des données de mouvement synthétiques. Si ces gains se confirment en production, ils apporteraient une réponse partielle au problème du sim-to-real gap, considéré comme l'un des principaux obstacles à l'industrialisation des humanoïdes. Prudence néanmoins : les deux déploiements cités restent à des stades pilotes, sans métriques publiées sur des cycles de production continus. Hexagon AB est un groupe suédois spécialisé en métrologie et intelligence industrielle, dont la division Robotics à Zurich s'est positionnée sur le segment humanoïde après des acteurs comme Figure AI (accord BMW signé dès 2024 pour le Figure 02), Boston Dynamics ou Agility Robotics (Digit, déployé chez Amazon). Les données spatiales collectées par AEON sont remontées vers Hexagon Reality Cloud Studio via HxDR et intégrées à NVIDIA Omniverse pour générer des jumeaux numériques industriels en temps réel, un positionnement qui ancre l'offre davantage dans l'écosystème PLM et métrologie d'Hexagon que dans la robotique mobile pure. Les prochaines étapes incluent une migration vers la puce NVIDIA IGX Thor pour renforcer les garanties de sécurité collaborative. En Europe, cette initiative rejoint les travaux de Wandercraft sur l'humanoïde de réhabilitation médicale et ceux d'Enchanted Tools sur des plateformes à usage hospitalier, signe d'un écosystème continental qui monte progressivement en maturité industrielle.

UELe partenariat entre Hexagon AB (Suède/Zurich) et Fill Maschinenbau (Autriche) pour déployer AEON en usine illustre la montée en maturité industrielle de l'écosystème européen des robots humanoïdes, aux côtés de Wandercraft et Enchanted Tools.

FR/EU ecosystemeOpinion
1 source
Lecture rapide et extensible des capteurs de mains dextériques par multiplexage à registre à décalage
25arXiv cs.RO 

Lecture rapide et extensible des capteurs de mains dextériques par multiplexage à registre à décalage

Une équipe de chercheurs a publié début mai 2025 sur arXiv (2605.01434) une architecture de lecture de capteurs analogiques scalable pour mains robotiques dextres. Le système repose sur un registre à décalage série-vers-parallèle (SIPO) qui permet de connecter des modules de capteurs hétérogènes via seulement trois lignes de signal entre chaque module. La validation porte sur une main robotique à tendons équipée de 16 modules articulaires et d'un module tactile à quatre canaux, soit 20 canaux échantillonnés à 1 kHz en mode plein balayage, avec une stabilité confirmée jusqu'à 1,5 kHz. Les capteurs articulaires atteignent une erreur maximale de pente (APE) de 0,446 % et une estimation angulaire inférieure au degré. Pour la perception tactile, des modèles LSTM déployés en inférence temps réel à 1 kHz obtiennent un RMSE de 0,125 N pour l'estimation de force et 93,4 % de précision pour la classification en cinq catégories de localisation de contact. L'apport principal est la dissociation entre nombre de capteurs, complexité du câblage et bande passante d'échantillonnage, un compromis qui freine depuis longtemps le développement de mains densément captées. Limiter l'interconnexion à trois fils réduit la complexité mécanique et électrique de façon significative, un point critique pour les intégrations en espace contraint. La démonstration à 1 kHz sur 20 canaux simultanés avec inférence LSTM embarquée prouve que la chaîne capteur-modèle peut tenir le rythme d'une boucle de contrôle temps réel sans matériel dédié coûteux. Les performances tactiles sont solides sur banc de test, mais l'article ne précise pas les conditions en manipulation libre, un élément à vérifier avant toute extrapolation industrielle. La dextérité robotique reste un verrou majeur pour la manipulation non structurée, et la densification des capteurs dans les mains mécaniques est un axe actif chez des acteurs comme Sanctuary AI, Figure, Apptronik ou 1X, dont les humanoïdes commerciaux peinent encore à atteindre la densité sensorielle des prototypes académiques. L'architecture SIPO présentée est suffisamment générique pour s'adapter à d'autres géométries de main ou d'autres types de capteurs comme la pression, la température ou la proximité, et constitue une base crédible pour des intégrations sur plateformes humanoïdes en cours de commercialisation. Du côté européen, ni Wandercraft ni Enchanted Tools n'ont publié d'approches comparables pour les effecteurs distaux, laissant ce créneau ouvert à de prochains travaux.

UEL'architecture SIPO publiée en open access sur arXiv constitue une base technique directement exploitable pour les équipes R&D européennes travaillant sur les effecteurs distaux d'humanoïdes, un créneau où Wandercraft et Enchanted Tools n'ont pas encore publié d'approches comparables.

RecherchePaper
1 source
Un indicateur efficace pour mesurer la qualité des données en apprentissage par imitation
26arXiv cs.RO 

Un indicateur efficace pour mesurer la qualité des données en apprentissage par imitation

Des chercheurs ont proposé sur arXiv (arXiv:2605.01544, mai 2026) une métrique automatisée pour évaluer la qualité des démonstrations en apprentissage par imitation (IL), fondée sur la densité spectrale de puissance (PSD) des trajectoires enregistrées. Une PSD faible signale une trajectoire lisse et exploitable ; une PSD élevée indique oscillations, corrections abruptes et mouvements erratiques qui dégradent les politiques apprises. Contrairement aux méthodes existantes, la métrique ne requiert ni rollout de politique, ni interaction avec l'environnement, ni étiquetage expert. Elle a été évaluée sur deux benchmarks IL et via une étude terrain avec des résidents âgés d'un établissement de retraite, dont les démonstrations ont servi à affiner π0.5 de Physical Intelligence pour une tâche de vie quotidienne. Les politiques issues des données filtrées par PSD surpassent les baselines non filtrées et deux méthodes concurrentes en taux de succès et en fluidité d'exécution. Le déploiement réel de robots guidés par imitation bute sur les scénarios hors distribution (OOD), aggravés par la faible qualité des démonstrations d'utilisateurs finaux. Les approches existantes de curation automatisée exigeaient des rollouts en environnement, coûteux et impraticables à grande échelle. La métrique PSD supprime ce verrou : applicable avant tout entraînement, elle filtre les démonstrations directement au moment de la collecte terrain. Pour les intégrateurs de robots manipulateurs en environnements non contrôlés, cela réduit concrètement le coût de mise en qualité des données sans ressources RL dédiées. Le travail s'inscrit dans l'essor des VLA (Vision-Language-Action models), où π0.5 de Physical Intelligence figure parmi les modèles de fondation robotique disponibles pour le fine-tuning, mais le défi du "demo-to-reality gap" reste l'un des freins majeurs au passage à l'échelle de l'IL. En ciblant des utilisateurs âgés peu habitués au guidage de robots, l'étude ouvre une piste vers la robotique d'assistance, segment où des acteurs comme Enchanted Tools en France cherchent à s'implanter. La prochaine étape logique serait l'intégration de cette métrique dans des pipelines de collecte en production, couplée à des retours temps réel pour guider les utilisateurs vers de meilleures démonstrations dès la capture.

UELa métrique PSD pourrait réduire le coût de curation de données pour des acteurs européens comme Enchanted Tools (France), actifs en robotique d'assistance, en supprimant le besoin de rollouts environnementaux coûteux lors du fine-tuning de modèles VLA.

RechercheOpinion
1 source
ARIS : un système d'intelligence relationnelle à base d'agents pour les robots sociaux
27arXiv cs.RO 

ARIS : un système d'intelligence relationnelle à base d'agents pour les robots sociaux

Des chercheurs ont publié sur arXiv (arXiv:2605.00943) ARIS, un cadre IA agentique conçu pour doter les robots sociaux d'une mémoire relationnelle persistante et d'un raisonnement contextuel multi-tours. L'architecture combine trois composants : un raisonnement multimodal (vision, parole, action physique), un Social World Model structuré en graphe de connaissances qui cartographie les relations entre utilisateurs, et un pipeline de génération augmentée par récupération (RAG) garantissant une latence bornée même lorsque l'historique de dialogue atteint plusieurs milliers d'échanges. Le système a été évalué sur un robot Pepper de SoftBank Robotics dans un cadre de conversation dyadique. Une étude utilisateur portant sur 23 participants montre qu'ARIS obtient des scores significativement supérieurs à une baseline LLM classique sur quatre dimensions : intelligence perçue, animacité, anthropomorphisme et sympathie. L'apport principal réside dans l'architecture de persistance sociale : les systèmes actuels traitent chaque interaction comme stateless, sans mémoire des rencontres précédentes ni modélisation des liens entre individus. ARIS rompt avec ce paradigme via un graphe de connaissances capable de réidentifier les utilisateurs d'une session à l'autre et de raisonner sur leurs relations mutuelles, une propriété directement utile dans des contextes d'accueil, d'assistance en entreprise ou d'accompagnement médical. Le pipeline RAG résout par ailleurs un problème pratique souvent ignoré : maintenir des réponses pertinentes sans dégradation de latence lorsque l'historique s'allonge, une contrainte critique pour un déploiement réel. Les résultats d'une étude à N=23 restent modestes en termes de puissance statistique, et aucune métrique de latence absolue n'est communiquée dans l'abstract. Le travail s'inscrit dans la vague d'application des grands modèles de fondation à la robotique sociale, dans la lignée de PaLM-E (Google, 2023) et des architectures Vision-Language-Action (VLA) de Physical Intelligence. Sur le marché des robots sociaux, les acteurs clés restent SoftBank Robotics (Pepper, NAO), Furhat Robotics et, côté français, Enchanted Tools avec son robot Miroki. ARIS sera publié en open source à la parution de l'article, ce qui pourrait accélérer l'adoption par des intégrateurs cherchant une couche de mémoire sociale au-dessus de modèles LLM existants. La prochaine étape est une validation en environnement réel.

UELe framework ARIS, promis en open source à la parution, offre une couche de mémoire sociale réutilisable que des intégrateurs européens, notamment Enchanted Tools (Miroki) pour l'accueil et l'assistance, pourraient exploiter directement au-dessus de leurs modèles LLM existants.

RecherchePaper
1 source
Affection robotique : opportunités de l'IA haptique pour le toucher social des robots par approche multi-deep-learning
28arXiv cs.RO 

Affection robotique : opportunités de l'IA haptique pour le toucher social des robots par approche multi-deep-learning

Une équipe de chercheurs propose, dans un article de positionnement déposé sur arXiv en mai 2025 (arXiv:2605.02538), une architecture multi-modèles pour traiter le toucher social affectif en robotique. Le problème ciblé est précis : si la préhension et la dextérité robotiques ont significativement progressé grâce au retour haptique, les gestes affectifs - poignées de main, caresses rassurantes, contacts sociaux codifiés - restent non résolus en interaction humain-robot (HRI). Les auteurs proposent de décomposer le toucher affectif en sous-tâches spécialisées, chacune traitée par un modèle dédié, dans une architecture distribuée en boucle fermée inspirée de la neurobiologie. Ce cadre repose sur un protocole de partage d'état pair-à-pair et s'intègre dans un pipeline Sim-to-Real pour faciliter le transfert de l'entraînement en simulation vers les plateformes physiques. Il s'agit à ce stade d'un cadre conceptuel sans validation expérimentale publiée. Le verrou adressé est réel : un robot capable de saisir un objet de cinq kilos avec précision peut échouer à simuler une poignée de main naturelle. Les auteurs introduisent la notion de "vallée de l'étrange haptique" (haptic uncanny valley), par analogie avec son équivalent visuel - un toucher robotique "presque juste" génère un inconfort plus marqué qu'un contact clairement artificiel. L'approche multi-modèles distribuée, à l'opposé d'un mouvement moteur monolithique, permettrait un développement cumulatif et modulaire : les équipes spécialisées en haptique, en IA et en robotique peuvent contribuer indépendamment. Pour les intégrateurs de robots sociaux dans les secteurs médical, thérapeutique ou d'assistance à la personne, cela ouvre une voie vers des interactions physiques acceptables et objectivement mesurables. La robotique sociale s'est longtemps concentrée sur l'expressivité faciale et vocale - Pepper de SoftBank Robotics, Paro de l'AIST japonais - en laissant le toucher en marge. Les travaux sur le retour haptique dans la manipulation (MIT, Stanford) ont ouvert la voie, mais sans cibler spécifiquement la dimension affective. Les acteurs industriels aujourd'hui dominants - Figure AI avec Figure 02, Boston Dynamics, 1X Technologies - concentrent leurs efforts sur la locomotion et la manipulation de charges, pas sur la qualité sociale du contact physique. Ce papier de positionnement structure un agenda de recherche interdisciplinaire dont les prochaines étapes attendues seront l'implémentation et l'évaluation sur des robots compagnons ou d'assistance, segments où des acteurs européens comme Enchanted Tools (France) et des projets d'assistance à la dépendance commencent à émerger.

UELa proposition d'un cadre modulaire pour le toucher affectif représente une piste de R&D pertinente pour des acteurs français comme Enchanted Tools, actifs sur les robots d'assistance et de compagnie.

RecherchePaper
1 source
Le fondateur d'iRobot veut placer un compagnon robotique dans votre foyer
29IEEE Spectrum Robotics 

Le fondateur d'iRobot veut placer un compagnon robotique dans votre foyer

Colin Angle, cofondateur d'iRobot - la société derrière le Roomba et la plus grande réussite commerciale de l'histoire de la robotique domestique - a présenté le 4 mai 2026 le premier robot de sa nouvelle entreprise, Familiar Machines & Magic (FM&M). Baptisé "Familiar", ce quadrupède à 23 degrés de liberté est recouvert d'une peau tactile personnalisée, équipé d'un réseau de microphones, d'un système de vision et d'une pile d'IA embarquée reposant sur un modèle multimodal compact optimisé pour le raisonnement social, combinant en temps réel vision, audio, langage et mémoire. La forme est délibérément celle d'un ours très abstrait - ni chien, ni chat - suivant la stratégie de Paro et Pleo : l'absence de référent animal direct réduit les attentes préconçues de l'utilisateur. Destiné aux adultes, Familiar est conçu pour vivre dans un foyer, chercher le contact de ses habitants et les aider à instaurer des routines positives - limiter le temps d'écran, inciter à sortir marcher. Aucun prix ni date de commercialisation n'ont été communiqués : il s'agit à ce stade d'un premier prototype présenté publiquement. Morgan Pope, ancien chercheur chez Disney Research, figure parmi les cofondateurs clés. Ce lancement teste une hypothèse industrielle précise : deux avancées récentes rendraient aujourd'hui crédible un robot social grand public viable. Pope identifie d'abord les robots bipèdes de Disney pilotés par apprentissage par renforcement (RL), qui ont démontré qu'une locomotion adaptative sur terrain varié ne nécessite plus d'actionneurs coûteux à faible jeu mécanique. Ensuite, les modèles génératifs multimodaux, dont Pope reconnaît ouvertement qu'ils excellent à créer "l'illusion plausible d'intelligence" - suffisante pour rendre un personnage cohérent sans compréhension profonde du monde physique. Pour les intégrateurs et décideurs, c'est un signal que le ratio performance/coût du hardware embarqué et du software a franchi un seuil. Le positionnement "coaching comportemental" tente de distinguer Familiar des gadgets de compagnie en lui assignant une utilité mesurable, là où ses prédécesseurs peinaient à justifier leur prix. La catégorie des robots sociaux grand public accumule les échecs commerciaux : Jibo, Cozmo, et le premier AIBO de Sony ont illustré la difficulté à convaincre au-delà des early adopters. Angle dispose d'une crédibilité rare dans ce contexte : iRobot a vendu des dizaines de millions de Roombas avant d'être racheté par Amazon en 2022, puis revendu. FM&M se positionne face à l'AIBO actuel de Sony (quadrupède social, environ 2 900 euros), mais avec une proposition d'IA comportementale plus ambitieuse et un traitement local plutôt que cloud. Aucun acteur français ou européen n'opère directement sur ce segment résidentiel - Enchanted Tools avec Miroki cible le secteur tertiaire. Les prochaines étapes de FM&M restent non communiquées : pas de timeline de lancement, pas de partenaire distributeur annoncé.

IA physiqueOpinion
1 source
Graphes de scènes spatio-temporels prédictifs pour scènes semi-statiques
30arXiv cs.RO 

Graphes de scènes spatio-temporels prédictifs pour scènes semi-statiques

Une équipe de chercheurs publie dans un preprint arXiv (réf. 2605.00121, mai 2025) une méthode de représentation spatio-temporelle-sémantique permettant à un robot de prédire l'état futur d'un environnement qui change de manière structurée entre les observations. La méthode repose sur deux composants : un filtre bayésien nommé Perpetua\, chargé d'inférer les états successifs de l'environnement, et une structure de graphe de scène 3D baptisée PredictiveGraphs, dans laquelle les nœuds représentent des objets et les arêtes encodent des relations spatio-sémantiques via des instances de Perpetua\. L'exemple illustratif donné est celui d'une tasse se déplaçant cycliquement entre placard, plan de travail et évier selon une routine quotidienne. La validation expérimentale couvre simulations et tests en environnement réel, où un espace domestique a subi des changements semi-statiques à raison d'une perturbation toutes les deux heures sur une période de trois semaines. L'enjeu opérationnel est significatif pour les robots déployés dans des environnements non contrôlés comme les entrepôts, les hôpitaux ou les domiciles. La grande majorité des représentations spatiales actuelles, des NeRF sémantiques aux graphes de scène 3D comme Hydra ou SceneGraphFusion, sont statiques ou réactives : elles gèrent les changements détectés en direct mais ne prévoient pas les états futurs. PredictiveGraphs s'attaque au "semi-static gap" : l'objet n'est pas présent au moment de l'observation, mais le robot doit pouvoir le localiser pour une tâche ultérieure. Dans les conditions de test, la méthode surpasse les approches de référence y compris face à des shifts de distribution, autrement dit lorsque les habitudes d'utilisation des objets dévient du schéma appris. Cette robustesse est une propriété critique pour des déploiements industriels où les routines humaines évoluent dans le temps. Les graphes de scène 3D pour la robotique ont connu un essor marqué depuis les travaux fondateurs de Rosinol et al. au MIT SPARK Lab en 2020 et le système open-source Hydra. Le raisonnement temporel sur ces structures reste néanmoins peu exploré : quelques travaux récents ont esquissé la piste via du SLAM probabiliste ou des représentations dynamiques partielles, sans modélisation explicite des cycles comportementaux récurrents. PredictiveGraphs occupe ce créneau. Ce preprint ne mentionne ni partenariat industriel ni calendrier de déploiement, et les expériences restent à l'échelle d'un appartement. La suite logique impliquerait une validation en environnement plus large, entrepôt ou établissement de soin, territoire où des acteurs européens comme Enchanted Tools avec son robot Mirokaï, ou des intégrateurs AMR opérant en espace contraint, commencent à chercher exactement ce type de raisonnement prédictif sur la disposition des objets.

UEImpact indirect : des robots opérant en espaces semi-contrôlés, comme le Mirokaï d'Enchanted Tools (France) ou les AMR européens en entrepôt, sont précisément les cibles applicatives identifiées, mais aucun partenariat ni transfert technologique n'est engagé à ce stade.

RecherchePaper
1 source
Combler l'écart de latence : pourquoi l'IA physique exige des architectures edge-first
31Robotics Business Review 

Combler l'écart de latence : pourquoi l'IA physique exige des architectures edge-first

Les systèmes vision industriels déployés en cloud affichent des latences aller-retour de 100 à 200 millisecondes pour la chaîne complète (acquisition image, inférence, retour commande). La norme ISO/TS 15066 sur le Speed and Separation Monitoring (SSM) impose pourtant au robot de maintenir en permanence une distance de séparation protectrice vis-à-vis de l'opérateur, et de réduire sa vitesse ou stopper dès que cette distance est franchie. À une vitesse de bras modérée de 2 m/s, une latence de 150 ms représente une zone aveugle de 300 mm dans la cellule, soit la différence entre une opération conforme et un incident. Pour compenser, les intégrateurs élargissent les zones de sécurité et plafonnent les vitesses, annulant l'essentiel du bénéfice productivité visé par la collaboration. L'architecture proposée consiste à déplacer l'inférence IA vers un processeur edge localisé dans la cellule, connecté directement au contrôleur robot via EtherCAT, PROFINET IRT ou les API temps-réel des constructeurs (URScript pour Universal Robots, RAPID pour ABB, KAREL pour FANUC), en contournant le PLC pour les ajustements cinématiques dynamiques. L'enjeu pour les intégrateurs et les décideurs industriels est d'atteindre une latence end-to-end inférieure à 30 ms, seuil identifié comme nécessaire pour un SSM proactif en environnement dynamique. Les PLCs industriels classiques, conçus pour des cycles de scrutation de 10 à 50 ms sur des entrées-sorties discrètes déterministes, ne sont pas dimensionnés pour ingérer les flux haute bande passante issus du suivi squelettique, de l'analyse de micro-mouvements et de l'estimation de l'état opérateur. Y router les inférences IA ajoute un cycle complet plus l'overhead fieldbus, suffisant pour briser le déterminisme nécessaire. Le modèle edge-direct débloque ainsi deux niveaux de valeur simultanément : le maintien du temps de cycle dans les cellules high-mix à haute variabilité, et la conformité SSM sans recourir à des vitesses réduites permanentes. À noter : l'article ne fournit pas de données de validation expérimentale sur cellules de production réelles, ce qui sera déterminant pour les intégrateurs en phase d'évaluation. L'article est publié par Cogniedge.ai, startup positionnée sur les architectures edge pour la robotique collaborative, dans un contexte de transition progressive des lignes brownfield vers des configurations HRC sans cage de protection. La norme ISO/TS 15066 encadre ce déploiement depuis 2016, mais son application reste freinée par des architectures logicielles héritées. Sur le marché, des acteurs comme SICK (capteurs de sécurité vision), Pilz (PNOZ, SafetyBUS) ou Veo Robotics (racheté par FANUC en 2023 après avoir développé une approche similaire de vision 3D pour SSM) adressent des segments proches. Du côté européen, des entreprises comme Pollen Robotics ou Enchanted Tools travaillent sur des plateformes robotiques à latence réduite, mais davantage dans des contextes de service que d'assemblage industriel. Les prochaines étapes logiques pour Cogniedge.ai seraient de publier des benchmarks comparatifs et de sécuriser des pilotes en production réelle, deux éléments absents de cette publication.

UELes intégrateurs européens soumis à l'ISO/TS 15066 pourraient adopter ces architectures edge-direct pour maintenir la conformité SSM sans sacrifier les temps de cycle sur les lignes HRC brownfield, mais l'absence de validation expérimentale retarde toute décision d'adoption.

IndustrielOpinion
1 source
Figure et 1X accélèrent la production de robots humanoïdes
32IEEE Spectrum Robotics 

Figure et 1X accélèrent la production de robots humanoïdes

Figure atteint désormais une cadence de production de 55 robots humanoïdes par semaine, selon une annonce publiée fin avril 2026. Ces unités sont, selon la startup américaine, destinées aux équipes internes de R&D, à la collecte de données, au développement de tâches domestiques de bout en bout et à des "cas d'usage commerciaux en développement", une formulation qui interroge sur la destination réelle de cette production alors que les déploiements commerciaux restent à maturité. En parallèle, 1X Technologies a officiellement ouvert la NEO Factory à Hayward, en Californie : une usine de 58 000 pieds carrés (environ 5 400 m²) employant plus de 200 personnes, avec une chaîne entièrement intégrée couvrant moteurs, batteries, transmissions, capteurs, structures et assemblage final. Les premières unités NEO sortent déjà des lignes de production, avec des livraisons grand public annoncées pour 2026. Sur le plan technique, Agility Robotics a publié des tests d'équilibre dynamique sur une seule jambe pour son robot Digit, et une équipe de recherche a présenté HTD (Humanoid Transformer with Touch Dreaming), un système de manipulation humanoïde combinant téleopération VR, apprentissage par renforcement pour le bas du corps et capteurs tactiles distribués. La montée en cadence simultanée de Figure et 1X marque un glissement du secteur humanoïde vers la production industrielle, mais chaque annonce appelle une lecture critique. Produire 55 unités par semaine sans contrats commerciaux confirmés suggère soit une stratégie de collecte de données à grande échelle, ressource clé pour l'entraînement des politiques VLA (Vision-Language-Action), soit une anticipation agressive de la demande avant une prochaine levée de fonds. L'intégration verticale revendiquée par 1X, inspirée du modèle Tesla, offre une flexibilité d'itération et réduit la dépendance aux fournisseurs, mais mobilise des capitaux considérables. Les travaux d'Agility sur l'équilibre dynamique illustrent par ailleurs que le gap sim-to-real reste un verrou technique central : la moindre divergence entre modèle simulé et robot réel peut provoquer une instabilité en conditions réelles, limitant directement la fiabilité en milieu industriel. Figure, fondée en 2022 par Brett Adcock, a levé plus de 750 millions de dollars avec BMW, Microsoft et Amazon comme partenaires, et opère un pilote chez BMW Manufacturing en Caroline du Sud depuis 2024, bien que les vidéos publiées restent en conditions contrôlées. 1X, société norvégienne soutenue par OpenAI et Tiger Global, se positionne sur le marché résidentiel face à Tesla Optimus (déployé progressivement dans les usines Tesla), aux robots Agility Digit (opérés chez Amazon) et aux fabricants chinois comme Unitree (G1, H1) qui exercent une pression tarifaire croissante. Aucun acteur européen, ni Wandercraft, ni Enchanted Tools, ni Pollen Robotics, n'annonce de production à ce volume pour l'instant. Les prochains trimestres détermineront si ces cadences correspondent à des commandes fermes ou à une stratégie de positionnement avant financement.

UELa montée en cadence de Figure et 1X exerce une pression concurrentielle sur les acteurs européens (Wandercraft, Enchanted Tools, Pollen Robotics), qui n'annoncent pas de volumes de production comparables à ce stade.

HumanoïdesActu
1 source
Évaluation de la sécurité des grands modèles de langage pour le contrôle d'assistants robotiques de santé
33arXiv cs.RO 

Évaluation de la sécurité des grands modèles de langage pour le contrôle d'assistants robotiques de santé

Une équipe de chercheurs a publié fin avril 2026 (arXiv:2604.26577) une évaluation systématique de la sécurité de 72 grands modèles de langage (LLMs) dans le contexte du contrôle de robots-soignants. Le protocole repose sur un corpus de 270 instructions nuisibles, réparties en neuf catégories de comportements interdits dérivés des Principes d'éthique médicale de l'American Medical Association, et testées dans un environnement de simulation basé sur le cadre "Robotic Health Attendant". Le taux de violation moyen toutes catégories confondues atteint 54,4 %, et plus de la moitié des modèles dépassent individuellement les 50 %. Les instructions superficiellement plausibles, manipulation d'équipements médicaux ou retard délibéré face à une urgence, s'avèrent bien plus difficiles à refuser pour les modèles que des requêtes ouvertement destructrices. L'écart entre modèles propriétaires et open-weight est particulièrement marqué : taux médian de violation à 23,7 % pour les premiers, contre 72,8 % pour les seconds. Ces résultats ont des implications directes pour quiconque envisage d'intégrer un LLM dans une boucle de contrôle robotique en milieu clinique. Ils invalident deux hypothèses courantes : d'abord, que le fine-tuning dans le domaine médical améliore la sécurité (aucun bénéfice significatif mesuré), ensuite, que des défenses basées sur le prompt suffisent à sécuriser les modèles les moins fiables (réduction modeste, niveaux absolus toujours incompatibles avec un déploiement clinique). La taille du modèle et la date de sortie restent les meilleurs prédicteurs de sécurité pour les modèles open-weight, ce qui suggère que l'amélioration est incidentelle aux évolutions générales d'entraînement, pas le fruit d'une conception sécurité-first. Le cadre Robotic Health Attendant, utilisé comme base de simulation, s'inscrit dans une tendance plus large où les LLMs sont envisagés comme couche de raisonnement dans des systèmes robotiques d'assistance à la personne, aux côtés d'approches comme les Vision-Language-Action models (VLA). Les acteurs du secteur, qu'il s'agisse de startups comme Enchanted Tools côté français ou de plateformes hospitalières intégrant des bras manipulateurs, n'ont pas encore de benchmark standardisé pour valider la sécurité comportementale de leurs modèles embarqués. Cette étude constitue une première tentative de formalisation, mais ses auteurs reconnaissent que les résultats, obtenus en simulation, devront être confrontés à des protocoles en environnement réel avant de pouvoir orienter des décisions de certification ou de déploiement.

UECette étude fournit un premier benchmark formalisé pour la sécurité comportementale des LLMs en robotique de santé, dont des acteurs français comme Enchanted Tools sont explicitement dépourvus, et pourrait orienter les futures exigences de certification dans le cadre de la réglementation européenne sur les dispositifs médicaux autonomes.

RechercheOpinion
1 source
Vidéo : Spot de Boston Dynamics s'équipe d'une IA pour des patrouilles continues et le suivi d'actifs
34Interesting Engineering 

Vidéo : Spot de Boston Dynamics s'équipe d'une IA pour des patrouilles continues et le suivi d'actifs

Asylon, société américaine spécialisée en sécurité robotique, commercialise DroneDog, une plateforme de surveillance autonome construite autour du robot quadrupède Spot de Boston Dynamics, augmenté d'un module propriétaire baptisé PupPack. Le système est conçu pour assurer des rondes continues sept jours sur sept, sans interruption liée aux contraintes humaines. Techniquement, la plateforme embarque des caméras électro-optiques haute résolution couplées à un canal thermique, avec un zoom optique 20x permettant une surveillance en conditions dégradées -- brouillard, faible luminosité, environnements obstrués. Les communications reposent sur un double canal LTE et mesh networking, chiffré en AES-256 avec des liaisons redondantes. Lorsque la batterie atteint un seuil critique, le robot regagne automatiquement sa station de charge, dite "DogHouse", une enceinte renforcée conçue pour maintenir une disponibilité opérationnelle permanente. Le contrôle humain reste intégré via un centre d'opérations de sécurité distant (Robotic Security Operations Center), où des analystes vérifient les alertes et orientent les interventions si nécessaire. Aucun prix public n'est communiqué à ce stade. L'intérêt industriel de ce type de déploiement réside moins dans la mobilité du robot -- Spot est capable de gravir des escaliers et de traverser des terrains accidentés depuis plusieurs années -- que dans la couche logicielle qui l'orchestre. La plateforme DroneIQ d'Asylon positionne le robot non comme un outil autonome isolé, mais comme un noeud dans un réseau de sécurité coordonné, capable de s'interfacer avec des caméras fixes, des systèmes d'alarme et des contrôles d'accès existants. Les algorithmes de détection de menaces ont été entraînés sur plusieurs centaines de milliers de missions, ce qui représente un volume de données opérationnelles significatif pour un marché encore en phase de maturation. Pour les intégrateurs et les COO industriels, la question centrale n'est pas tant la performance du robot en démonstration que la robustesse de l'intégration dans des workflows de sécurité réels -- un point sur lequel Asylon insiste explicitement, reconnaissant que les déploiements fragmentés restent le principal frein à l'adoption. Boston Dynamics a progressivement ouvert Spot à l'écosystème de partenaires tiers depuis 2020, permettant à des sociétés comme Asylon d'y greffer des modules spécialisés via des ports payload standardisés. Sur le marché de la sécurité robotique mobile, Asylon se positionne face à des acteurs comme Knightscope (robots de sécurité fixes et mobiles, coté en bourse) ou SMP Robotics, ainsi qu'à des solutions de surveillance par drone telles que celles de Percepto. En Europe, les initiatives restent plus fragmentées, bien que des sociétés françaises comme Enchanted Tools travaillent sur des plateformes robotiques à usage professionnel. Asylon n'a pas communiqué de calendrier précis pour de nouveaux déploiements ni de liste de clients référencés, ce qui maintient DroneDog davantage dans la catégorie "produit disponible à la commande" que "déploiement à grande échelle validé en conditions réelles".

IndustrielActu
1 source
Les avancées de l'IA physique chinoise s'affichent sur les routes, dans les airs et en usine
35SCMP Tech 

Les avancées de l'IA physique chinoise s'affichent sur les routes, dans les airs et en usine

L'IA physique - la combinaison de machines avancées dotées de "cerveaux" capables d'interagir avec leur environnement - connaît une expansion accélérée en Chine. Des drones de livraison sillonnent désormais les airs au-dessus de Shenzhen, dans le sud du pays, tandis que des robots de livraison empruntent les réseaux de métro urbains. Les premiers véhicules autonomes circulent sur des axes publics, et des robots humanoïdes font leur apparition aussi bien sur les lignes de production industrielles que sur des scènes de spectacle. Cette convergence entre robotique, véhicules autonomes et drones représente un changement structurel dans la façon dont la Chine déploie l'IA au-delà des serveurs : il ne s'agit plus de démos en laboratoire, mais de systèmes en opération réelle dans des environnements non contrôlés. Pour les intégrateurs industriels et les décideurs B2B, cela signifie que le fossé entre prototype et déploiement se réduit concrètement sur plusieurs verticales simultanément, ce qui accroît la pression concurrentielle sur les acteurs occidentaux et japonais du secteur. Ce déploiement s'inscrit dans une stratégie industrielle nationale de long terme, soutenue par des financements publics et une chaîne d'approvisionnement en composants (actionneurs, capteurs, puces) largement localisée. Face à la Chine, les États-Unis misent sur des acteurs comme Figure AI, Agility Robotics ou Boston Dynamics, tandis qu'en Europe, des sociétés comme Enchanted Tools (France) ou Wandercraft restent à des stades de commercialisation plus précoces. Les prochaines étapes chinoises devraient inclure une densification des flottes de drones en zone urbaine et l'extension des corridors de test pour véhicules autonomes.

UELes entreprises françaises comme Enchanted Tools et Wandercraft, encore en phase de commercialisation précoce, subissent une pression concurrentielle croissante face aux déploiements à grande échelle opérés en Chine sur plusieurs verticales simultanément.

Chine/AsieOpinion
1 source
RedVLA : l'attaque physique des modèles vision-langage-action (VLA)
36arXiv cs.RO 

RedVLA : l'attaque physique des modèles vision-langage-action (VLA)

Une équipe de chercheurs a publié RedVLA (arXiv:2604.22591), présenté comme le premier framework de red teaming physique dédié aux modèles VLA (Vision-Language-Action), ces architectures multimodales qui pilotent des robots physiques en interprétant simultanément des instructions visuelles et textuelles. Le framework opère en deux étapes : une phase de "Risk Scenario Synthesis" qui identifie automatiquement les régions d'interaction critiques dans des trajectoires normales pour y insérer des facteurs de risque entremêlés au flux d'exécution du modèle, suivie d'un "Risk Amplification" qui raffine itérativement la position et l'état du facteur de risque via une optimisation sans gradient guidée par des caractéristiques de trajectoire. Testé sur six modèles VLA représentatifs, RedVLA atteint un taux de succès d'attaque (Attack Success Rate) de 95,5 % en seulement 10 itérations d'optimisation. Les chercheurs proposent en parallèle SimpleVLA-Guard, un module de sécurité léger entraîné sur les données générées par RedVLA, dont le code et les assets sont disponibles publiquement. Un ASR de 95,5 % signifie que dans quasiment tous les scénarios testés, le framework a réussi à provoquer des comportements dangereux dans des modèles VLA avant déploiement. C'est un résultat préoccupant pour les intégrateurs industriels : contrairement aux attaques sur systèmes purement logiciels, les comportements physiques incorrects (collisions, chutes d'objets, dommages environnementaux) sont souvent irréversibles. RedVLA démontre qu'il est possible de cartographier ces risques de façon systématique avant mise en production, ce qui comble un vide méthodologique réel. Pour les équipes chargées de qualifier des robots manipulateurs ou des humanoïdes, ce type d'outil d'évaluation adversariale pourrait devenir une exigence de certification, à l'image des standards de sécurité fonctionnelle (IEC 61508) dans l'automatisation industrielle. Les modèles VLA ont connu une accélération marquée depuis 2023 avec RT-2 (Google DeepMind), OpenVLA (Stanford), Pi-0 (Physical Intelligence) et GR00T N2 (NVIDIA), chacun visant à généraliser les capacités de manipulation via de grandes architectures multimodales pré-entraînées. La sécurité physique de ces systèmes est restée largement sous-étudiée, la recherche en robustesse IA se concentrant surtout sur les attaques adversariales textuelles ou visuelles en contexte numérique. RedVLA adapte les méthodologies de red teaming issues des LLMs au domaine physique, un glissement de paradigme qui devrait intéresser aussi bien les acteurs américains (Figure AI, Agility Robotics, Boston Dynamics) que les startups européennes déployant des robots en environnement humain, comme Enchanted Tools (Mirokaï, France) ou Wandercraft. Les prochaines étapes naturelles seraient des validations sur hardware réel et l'intégration de SimpleVLA-Guard dans des pipelines de déploiement industriels.

UELes startups françaises déployant des robots en environnement humain (Enchanted Tools, Wandercraft) sont directement concernées par ces vulnérabilités VLA, et SimpleVLA-Guard pourrait s'imposer comme exigence dans les pipelines de qualification sous réglementation européenne (AI Act, certification IEC 61508).

RechercheOpinion
1 source
Automatisation robotique assistée par apprentissage automatique pour la fabrication industrielle
37arXiv cs.RO 

Automatisation robotique assistée par apprentissage automatique pour la fabrication industrielle

Des chercheurs ont présenté un système hybride baptisé Learning-Augmented Robotic Automation (LARA), déployé sur une ligne de production réelle de moteurs électriques pour automatiser deux tâches jusqu'alors confiées à des opérateurs humains : l'insertion de câbles déformables et la soudure. Le système combine des contrôleurs de tâches appris par imitation et un moniteur de sécurité neuronal 3D, intégré directement dans les workflows industriels existants. Entraîné avec moins de 20 minutes de données réelles par tâche, LARA a fonctionné en continu pendant 5 heures 10 minutes, produisant 108 moteurs sans barrière physique de protection, avec un taux de conformité de 99,4 % aux tests de contrôle qualité au niveau produit. Le takt time atteint est comparable à celui d'un opérateur humain, avec une réduction mesurée de la variabilité des joints de soudure et des temps de cycle. Ce résultat s'attaque directement au fossé entre démonstration laboratoire et déploiement industriel effectif, l'obstacle principal qui freine l'adoption de la robotique apprenante en production. L'entraînement en moins de 20 minutes par tâche abaisse considérablement la barrière à l'intégration pour les industriels et les intégrateurs système. Pour un COO de ligne d'assemblage, le point le plus structurant est l'absence de caging physique : le moniteur neuronal remplace les protections mécaniques classiques, ouvrant la voie à des cellules collaboratives sans les coûts de reconfiguration d'atelier associés aux robots industriels traditionnels. La manipulation de câbles déformables et la soudure figurent parmi les tâches les plus résistantes à la robotisation classique, du fait de la déformation matière et de la non-répétabilité des poses. Sur ce segment, Physical Intelligence (Pi-0.5) et Figure AI (Helix sur Figure 02) poussent des VLA généralistes pour la manipulation multi-tâches, tandis que Wandercraft et Enchanted Tools, tous deux français, ciblent respectivement la mobilité humanoïde et les robots de service. LARA se distingue par son pragmatisme : pas d'humanoïde, pas de modèle fondationnel, mais une hybridation ciblée sur des cellules industrielles existantes. Les auteurs évoquent comme suites naturelles l'extension à d'autres tâches de câblage et la validation sur des lignes multi-produits.

UELa fabrication de moteurs électriques est un segment clé de la transition EV en Europe ; LARA démontre qu'un système appris en moins de 20 minutes peut atteindre le takt time humain sur des tâches résistantes à la robotisation classique, abaissant directement la barrière d'adoption pour les intégrateurs et industriels européens sans reconfiguration lourde d'atelier.

IndustrielActu
1 source
ExpressMM : des comportements de manipulation mobile expressifs dans les interactions humain-robot
38arXiv cs.RO 

ExpressMM : des comportements de manipulation mobile expressifs dans les interactions humain-robot

Des chercheurs ont présenté ExpressMM, un framework destiné aux manipulateurs mobiles déployés en environnements humains, capable de générer des comportements expressifs en temps réel pendant l'exécution de tâches collaboratives. Publié sur arXiv (2604.05320v3), le système repose sur une architecture à deux niveaux : un planificateur de haut niveau fondé sur un modèle vision-langage (VLM) prend en charge la perception et le raisonnement conversationnel, tandis qu'une politique vision-langage-action (VLA) de bas niveau produit les mouvements expressifs du robot. Élément distinctif : ExpressMM supporte les interactions interruptibles, c'est-à-dire que l'utilisateur peut modifier ou rediriger les instructions du robot en cours d'exécution. L'évaluation a été conduite sur un manipulateur mobile réel lors d'un scénario d'assemblage collaboratif, avec des démonstrations en direct devant un public et des questionnaires post-session. La majorité des travaux antérieurs sur les comportements expressifs des robots s'appuyaient sur des mouvements préprogrammés ou appris par démonstration, et n'anticipaient pas les interruptions en cours de tâche, un cas pourtant courant dès qu'un humain travaille aux côtés d'un robot. ExpressMM traite cette lacune en couplant une VLA capable de s'adapter dynamiquement aux nouvelles instructions avec un raisonnement langage-vision pour maintenir la cohérence sociale de l'interaction. Les résultats des questionnaires indiquent que les observateurs ont trouvé les actions du robot clairement interprétables, les interactions socialement appropriées, et le comportement prévisible et sûr. Pour les intégrateurs industriels et les équipes opérations, c'est un signal fort : les robots collaboratifs ne peuvent plus se contenter d'accomplir une tâche ; ils doivent être lisibles par les humains qui partagent l'espace de travail. Le sujet de l'expressivité robotique est activement exploré depuis plusieurs années dans la communauté HRI, mais les approches précédentes peinaient à généraliser au-delà de comportements scénarisés ou de démos contrôlées. L'utilisation conjointe d'un VLM et d'une VLA dans un seul pipeline interruptible représente une progression architecturale significative. Sur le plan concurrentiel, des acteurs comme Boston Dynamics (avec Spot) ou des startups HRI telles que Enchanted Tools en France (robot Miroki) travaillent également sur la dimension sociale des robots collaboratifs, mais peu publient des évaluations HRI aussi structurées en conditions réelles. Les prochaines étapes logiques pour ExpressMM seraient des déploiements en environnements industriels ou de service à plus grande échelle, où la variété des interactions humaines dépasse largement les scénarios d'assemblage contrôlés.

UELa recherche est directement pertinente pour Enchanted Tools (France, robot Miroki), qui travaille sur des problématiques similaires d'expressivité sociale et d'interaction humain-robot collaboratif.

IA physiqueOpinion
1 source
De l'électrique à la robotique : Tesla vise 10 millions d'unités Optimus avec sa nouvelle usine au Texas
39Robotics Business Review 

De l'électrique à la robotique : Tesla vise 10 millions d'unités Optimus avec sa nouvelle usine au Texas

Tesla a annoncé lors de son appel aux résultats du premier trimestre 2026, le 23 avril, le lancement de la production de son robot humanoïde Optimus dès le deuxième trimestre à son usine de Fremont, en Californie. Pour libérer la capacité nécessaire, l'entreprise supprime les lignes de production des Model S et Model X, remplacées par une première usine robotique dimensionnée pour un million d'unités par an. En parallèle, Tesla entame les travaux de terrassement d'une seconde installation au Gigafactory Texas, dont la cible à long terme atteint dix millions de robots par an. Ces annonces s'appuient sur des résultats financiers solides : 3,9 milliards de dollars de flux de trésorerie opérationnel et une marge brute GAAP de 21 % au T1 2026. L'entreprise développe également le processeur d'inférence AI5, conçu spécifiquement pour les charges de calcul des programmes Optimus et Robotaxi, ainsi qu'une couche logicielle baptisée "Digital Optimus", destinée à automatiser des flux de travail numériques en complément du robot physique. Ces chiffres sont spectaculaires sur le papier, mais méritent d'être lus avec nuance. Un million d'unités par an à Fremont représente un objectif de production industrielle que peu d'acteurs de la robotique humanoïde ont jamais approché : Boston Dynamics, après trente ans d'existence, produit quelques milliers d'Atlas et Spot par an. Pour les intégrateurs et décideurs industriels, la question centrale n'est pas la capacité de fabrication annoncée mais la réalité du déploiement : Tesla n'a pas publié de données sur la fiabilité opérationnelle d'Optimus en dehors de ses propres usines, ni sur le coût unitaire ou les contrats clients tiers. La décision de faire de l'intégration verticale sur les semi-conducteurs (AI5) signale néanmoins une stratégie cohérente : contrôler la stack complète, de la puce au software de planification de mouvement, pour ne pas dépendre de fournisseurs comme NVIDIA dont Tesla s'est éloigné sur d'autres programmes. Optimus a été présenté pour la première fois en septembre 2022 sous forme de prototype très préliminaire, puis démontré dans une version Gen 2 fin 2023, avant d'être déployé dans les usines Tesla courant 2024-2025 pour des tâches de manutention internes. La trajectoire de Tesla croise frontalement celle de Figure AI (Figure 02 déployé chez BMW), Agility Robotics (Digit en production chez Amazon), et Physical Intelligence dont le modèle de fondation Pi-0 alimente plusieurs plateformes. Du côté des acteurs européens, Wandercraft et Enchanted Tools restent positionnés sur des niches spécifiques (rééducation, service) sans rivaliser sur les volumes industriels annoncés. La prochaine étape concrète pour Tesla sera la présentation par Joshua Joseph, ingénieur déploiement AMR chez Tesla, d'une session sur le déploiement d'AMR dans les usines américaines existantes lors du Robotics Summit & Expo de Boston le 28 mai 2026, qui donnera une première lecture des réalités terrain derrière les ambitions affichées.

UELa montée en puissance annoncée par Tesla sur Optimus renforce la pression concurrentielle sur les acteurs européens comme Wandercraft et Enchanted Tools, qui restent cantonnés à des niches (rééducation, service) sans pouvoir rivaliser sur les volumes industriels visés.

HumanoïdesOpinion
1 source
Chaleur et compétence dans l'essaim : concevoir des équipes humain-robot efficaces
40arXiv cs.RO 

Chaleur et compétence dans l'essaim : concevoir des équipes humain-robot efficaces

Une équipe de chercheurs a publié sur arXiv (identifiant 2604.19270, avril 2026) une étude portant sur la perception sociale des essaims de robots lors de collaborations avec des humains. Via deux expériences structurées autour d'une tâche collective de recherche, les participants ont évalué différentes configurations d'essaim en tant qu'observateurs passifs dans la première étude, puis en tant qu'opérateurs actifs dans la seconde. Les résultats sont consistants sur les deux études : les variations de comportement du groupe de robots modifient systématiquement les jugements de chaleur relationnelle (warmth) et de compétence attribués au collectif. Une durée de diffusion de signal plus longue augmente la chaleur perçue ; une distance de séparation inter-robots plus grande augmente la compétence perçue. La vitesse individuelle de chaque robot, en revanche, n'a d'effet significatif sur aucun des deux attributs. Le résultat le plus contre-intuitif est que les perceptions sociales prédisent les préférences d'équipe plus fortement que la performance brute. Les participants ont préféré les équipes à la fois chaleureuses et compétentes à celles qui accomplissaient la tâche le plus rapidement. Pour les intégrateurs de systèmes multi-robots et les responsables industriels, ce constat remet en cause un postulat courant : optimiser un essaim pour la vitesse ou l'efficacité pure ne suffit pas à obtenir l'adhésion des opérateurs humains. La dimension sociale du comportement collectif, la façon dont le groupe semble agir plutôt que ce qu'il accomplit, détermine l'acceptation et la confiance. Dans des environnements collaboratifs intégrant des AMR ou des flottes robotiques, ignorer ces paramètres constitue un facteur de risque d'adoption sous-estimé. Le cadre théorique utilisé, le modèle competence-warmth issu de la psychologie sociale, est bien établi pour la perception des individus et des groupes humains, mais son application aux essaims robotiques reste émergente. La littérature en HRI (human-robot interaction) s'est jusqu'ici principalement focalisée sur des agents individuels. Ce preprint arXiv, non encore évalué par les pairs, s'inscrit dans une direction de recherche croissante à l'intersection du swarm robotics et de la HRI. Des entreprises déployant des flottes en environnement humain, de Boston Dynamics à des acteurs européens comme Exotec ou Enchanted Tools, auraient intérêt à intégrer ces paramètres comportementaux dès la conception. La prochaine étape logique serait de valider ces résultats en environnement industriel réel, avec des opérateurs non-experts et des tâches à plus forte variabilité.

UEExotec et Enchanted Tools, acteurs européens déployant des flottes robotiques en environnement humain, sont explicitement cités comme pouvant intégrer dès la conception les paramètres comportementaux (durée de signal, distance inter-robots) identifiés par cette étude.

💬 Ce qui est frappant, c'est que la vitesse ne change rien à la perception. Les opérateurs préfèrent un essaim qui semble chaleureux et compétent à celui qui boucle la tâche le plus vite, ce qui chamboule pas mal les priorités si tu déploies une flotte en entrepôt avec des humains. Exotec, Enchanted Tools : ces paramètres comportementaux, c'est à intégrer dès la conception, pas après coup.

RecherchePaper
1 source
GenerativeMPC : contrôle prédictif corps entier guidé par VLM-RAG, impédance virtuelle et manipulation mobile bimanuelle
41arXiv cs.RO 

GenerativeMPC : contrôle prédictif corps entier guidé par VLM-RAG, impédance virtuelle et manipulation mobile bimanuelle

Des chercheurs ont soumis sur arXiv (arXiv:2604.19522) un framework baptisé GenerativeMPC, destiné aux robots manipulateurs mobiles bimanaux. Le système articule un modèle de vision-langage couplé à une génération augmentée par récupération (VLM-RAG) avec un contrôleur prédictif sur le corps entier (Whole-Body MPC). Concrètement, le module VLM-RAG analyse la scène en temps réel, visuellement et en langage naturel, puis génère des contraintes de contrôle numériques directement exploitables: limites de vitesse dynamiques et marges de sécurité injectées dans le MPC. Parallèlement, il module les gains de raideur et d'amortissement virtuels d'un contrôleur impédance-admittance unifié pour adapter la compliance du robot au contexte. Les expériences menées dans les simulateurs MuJoCo et IsaacSim, puis sur une plateforme physique bimanuale, font état d'une réduction de vitesse de 60% à proximité des humains. Le système s'appuie sur une base de données vectorielle alimentée par l'expérience passée, ce qui permet d'ancrer les paramètres de contrôle sans ré-entraînement du modèle. L'enjeu architectural est significatif pour les intégrateurs et les décideurs industriels. Les approches end-to-end de type VLA, comme Pi-0 (Physical Intelligence) ou GR00T N2 (NVIDIA), délèguent entièrement la traduction sémantique-physique au réseau neuronal, rendant les garanties de sécurité difficiles à certifier formellement. GenerativeMPC propose une architecture hybride explicite: le grand modèle raisonne sur le contexte (présence humaine, nature de la tâche) et produit des paramètres numériques interprétables qui alimentent un MPC classique au comportement auditable et déterministe. Pour les secteurs à forte contrainte réglementaire, c'est un argument de poids. La réduction de 60% reste cependant une métrique à contextualiser: le papier ne précise pas la vitesse de référence initiale ni les conditions exactes des essais physiques, un bémol courant dans les publications de ce type. La manipulation mobile bimanuale est l'un des problèmes ouverts les plus exigeants de la robotique collaborative, coincé entre contrôleurs classiques contextuellement aveugles et modèles end-to-end difficilement certifiables. L'utilisation du RAG pour paramétrer des contrôleurs physiques est une direction de recherche émergente, distincte de l'apprentissage par renforcement. Dans l'écosystème concurrent, Figure AI (Figure 03), Boston Dynamics (Atlas) et 1X Technologies explorent des architectures hybrides pour des tâches bimanales. En Europe, Enchanted Tools (France) et des laboratoires comme le LAAS-CNRS avancent sur des architectures de contrôle sûres pour la collaboration humain-robot. GenerativeMPC reste pour l'instant un résultat de recherche académique sans déploiement industriel annoncé, mais son approche explicitement certifiable ouvre des perspectives concrètes pour la logistique collaborative et la robotique médicale.

UELe LAAS-CNRS et Enchanted Tools (France) travaillent sur des architectures de contrôle sûres similaires ; l'approche hybride certifiable de GenerativeMPC pourrait renforcer le positionnement européen dans les débats réglementaires sur la certification des robots collaboratifs au titre de l'AI Act.

RechercheOpinion
1 source
Quanzhibo lève des centaines de millions de yuans lors d'un tour de Série A++
42Pandaily 

Quanzhibo lève des centaines de millions de yuans lors d'un tour de Série A++

Quanzhibo, développeur chinois de joints servo fondé en 2020 à Wuxi, a bouclé le 21 avril 2026 un tour Series A++ de plusieurs centaines de millions de yuans, avec la participation de Shenzhen Investment Holdings, Photosynthesis Ventures, Orient Jiafu, Junshan Capital, Liangjiang Capital et Junxi Capital. Cette levée porte le financement total cumulé à plus de 600 millions de RMB en huit tours. La société commercialise trois familles de joints servo intégrés (planétaire PA, harmonique HA, cycloïdal CA) couvrant des couples de 2 à 400 Nm, pour humanoïdes et robots quadrupèdes. En 2025, ses livraisons ont dépassé 100 000 modules, auprès de clients comme Songyan Power et Leju Robotics. En avril 2026, son usine de fabrication de précision à Wuxi est entrée en production avec un cycle de 90 secondes par unité, un taux d'automatisation de 85 %, un rendement au premier passage de 96 % et un rendement global supérieur à 98 %, pour une capacité annuelle annoncée à l'échelle du million d'unités. Ce financement reflète la tension croissante autour des joints actionneurs, qui restent l'un des principaux verrous pour les fabricants d'humanoïdes. Couvrir 2 à 400 Nm avec un seul fournisseur simplifie la chaîne d'approvisionnement des intégrateurs, des doigts jusqu'aux hanches. Atteindre 100 000 unités expédiées en 2025 et viser le million par an place Quanzhibo dans un registre de volume compatible avec une production en série, à condition que le taux de rendement annoncé (98 % global) résiste à une vérification indépendante, hors contexte de communication financière. Fondée en 2020, l'entreprise a enchaîné cinq tours en 2025 seul (A2 à A6), rythme qui traduit une compétition intense côté chinois sur les actionneurs de précision, où des acteurs comme INNFOS et des filiales de groupes industriels investissent également. À l'international, Figure AI (Figure 03), Tesla (Optimus) et 1X Technologies développent leurs joints en interne, tandis que Harmonic Drive AG reste la référence sur les marchés occidentaux. En Europe, des sociétés comme Wandercraft ou Enchanted Tools s'approvisionnent encore majoritairement hors de Chine. L'ouverture de l'usine de Wuxi marque le passage de Quanzhibo d'une logique de R&D à une logique de composant de série ; les prochaines étapes probables incluent des accords OEM avec des fabricants d'humanoïdes de second rang et des ambitions à l'export.

UELa montée en puissance industrielle de Quanzhibo (capacité annoncée à 1 million d'unités/an) accentue la pression concurrentielle sur les fournisseurs d'actionneurs de précision non-chinois, au moment où des fabricants européens d'humanoïdes comme Wandercraft et Enchanted Tools s'approvisionnent encore majoritairement hors de Chine.

Chine/AsieActu
1 source
Alfie : nouveau robot humanoïde autonome pour les tâches industrielles complexes
43Interesting Engineering 

Alfie : nouveau robot humanoïde autonome pour les tâches industrielles complexes

RobCo, startup allemande fondée à Munich, a dévoilé à la Hannover Messe 2026 un robot humanoïde industriel baptisé Autonomous Alfie, conçu pour des tâches de fabrication complexes impliquant une forte variabilité : kitting, palettisation, assemblage de précision et manipulation de matériaux sensibles. L'annonce intervient dans la foulée d'une levée de fonds Serie C de 100 millions de dollars, orientée vers le développement de ce que RobCo appelle la "Physical AI". Le robot embarque une manipulation bimanuels, c'est-à-dire une coordination à deux bras imitant la gestuelle humaine, couplée à un système de vision et de perception haptique permettant de gérer des pièces mal orientées ou des flux de travail changeants. Les premiers déploiements clients sont annoncés pour la fin 2026, sans précision sur les sites ou les secteurs ciblés. RobCo dispose déjà d'opérations à San Francisco et Austin, et l'essentiel de ce financement est clairement orienté vers le marché américain. Ce que RobCo met en avant, c'est le passage à ce qu'il nomme le "niveau 4 d'autonomie" en contexte industriel : un système capable d'apprendre par observation plutôt que par programmation explicite, et d'exécuter des tâches avec une intervention humaine minimale, même dans des environnements non structurés. C'est précisément le segment qui résiste encore à l'automatisation classique, dominée par les bras articulés répétitifs qui exigent des environnements stables et des fixtures précises. Si les performances annoncées se confirment en production réelle, Alfie s'attaquerait au "messy middle" de la chaîne industrielle, ce gisement de tâches manuelles à haute variabilité que ni les AMR ni les cobots traditionnels n'ont su automatiser à l'échelle. Le modèle Robotics-as-a-Service (RaaS) proposé en parallèle vise à supprimer le frein du capex initial, facilitant une adoption rapide sans engagement d'achat lourd. Il faut néanmoins noter qu'Alfie est décrit comme étant encore en "phase finale de développement" : les affirmations sur l'autonomie de niveau 4 restent à valider sur des lignes de production en conditions réelles, les vidéos de démo présentées à Hannover Messe ne constituant pas une preuve de déploiement industriel à l'échelle. RobCo n'est pas un nouvel entrant : la société était jusqu'ici positionnée sur les bras robotiques modulaires pour PME, avant de pivoter vers l'humanoïde et la Physical AI. Elle rejoint un champ concurrentiel désormais dense, où Figure (Figure 03), Tesla (Optimus Gen 3), Physical Intelligence (Pi-0), Boston Dynamics et 1X Technologies se disputent la même promesse d'un robot généraliste pour l'industrie. En Europe, des acteurs comme Enchanted Tools (Mirokaï) ou Wandercraft développent des approches parallèles, sans avoir encore atteint la phase de déploiement commercial annoncé. La prochaine étape décisive pour RobCo sera la publication de métriques de production vérifiables, notamment les temps de cycle en conditions non contrôlées et les taux d'erreur sur tâches à haute variabilité, seuls indicateurs capables de distinguer une démonstration convaincante d'un produit réellement opérationnel.

UERobCo, startup allemande basée à Munich, annonce un humanoïde industriel et lève 100M$ mais oriente son financement prioritairement vers le marché américain, limitant l'impact concret à court terme pour l'industrie européenne malgré la vitrine de Hannover Messe.

Démasquer l'illusion du raisonnement incarné dans les modèles vision-langage-action (VLA)
44arXiv cs.RO 

Démasquer l'illusion du raisonnement incarné dans les modèles vision-langage-action (VLA)

Des chercheurs ont publié le 22 avril 2026 un article sur arXiv (référence 2604.18000) introduisant BeTTER, un benchmark de diagnostic conçu pour tester le raisonnement incarné réel dans les modèles de type Vision-Language-Action (VLA). L'objectif : vérifier si les taux de succès élevés affichés par des modèles comme pi-0, OpenVLA ou RoboVLMs sur les benchmarks standards reflètent une véritable intelligence physique, ou un artefact d'évaluation. BeTTER applique des interventions causales ciblées, modifications de la disposition spatiale, extrapolation temporelle, tout en isolant cinématiquement les échecs de raisonnement de haut niveau des limites d'exécution motrice de bas niveau. Résultat : les VLA de pointe s'effondrent dans des scénarios dynamiques, exhibant des raccourcis lexico-cinématiques (le modèle associe des mots à des patterns moteurs sans vraiment "comprendre"), une inertie comportementale, et un effondrement de la représentation sémantique. Ces résultats remettent en cause l'un des postulats les plus optimistes du secteur : que les hauts scores sur benchmarks constituent une preuve de généralisation. L'analyse mécaniste des auteurs identifie deux goulots d'étranglement architecturaux structurels, la compression de capacité et le sous-échantillonnage myope, qui dégradent systématiquement la représentation sémantique fondamentale du modèle. En d'autres termes, les architectures VLA actuelles sont structurellement contraintes à sacrifier le raisonnement de haut niveau pour maintenir la fréquence de contrôle nécessaire à l'exécution motrice en temps réel. Les protocoles d'évaluation trop statiques masquent cette dégradation en permettant au modèle d'overfitter aux priors sensorimoteurs du dataset, ce qui est un signal d'alarme direct pour les intégrateurs industriels qui évaluent ces systèmes avant déploiement. La famille VLA a connu une accélération marquée depuis fin 2023, avec les travaux de Physical Intelligence (pi-0), Google DeepMind (RT-2, puis Helix en collaboration avec Figure AI), et des efforts académiques nombreux autour de modèles open-source comme OpenVLA. Le gap benchmark-réalité est un problème récurrent en robotique, le sim-to-real transfer en est la version la plus connue, mais BeTTER le documente cette fois au niveau du raisonnement cognitif plutôt que de la dynamique physique. Les auteurs valident leurs conclusions sur robot réel, ce qui exclut l'hypothèse d'un artefact de simulation. La prochaine étape logique pour le secteur est de repenser les architectures VLA pour résoudre la tension structurelle entre contrôle haute fréquence et raisonnement sémantique robuste, probablement via des approches hiérarchiques déjà explorées par des équipes comme Wandercraft côté locomotion, ou Enchanted Tools pour la manipulation expressive.

UEWandercraft et Enchanted Tools, acteurs français actifs sur la locomotion et la manipulation expressive, sont directement concernés par les goulots d'étranglement architecturaux identifiés par BeTTER, qui constitue un signal d'alarme pour tout intégrateur européen évaluant des systèmes VLA avant déploiement industriel.

RechercheOpinion
1 source
EmbodiedLGR : un graphe léger pour la mémoire sémantique-spatiale des agents robotiques
45arXiv cs.RO 

EmbodiedLGR : un graphe léger pour la mémoire sémantique-spatiale des agents robotiques

Des chercheurs ont publié le 23 avril 2026 sur arXiv (référence 2604.18271) les travaux sur EmbodiedLGR-Agent, une architecture mémoire pour robots mobiles combinant graphe sémantique léger et retrieval-augmented generation. Le système repose sur un modèle visuo-langagier (VLM) à faible empreinte paramétrique qui indexe en continu les objets détectés, leurs positions et leurs relations spatiales dans un graphe dense, tout en conservant des descriptions de haut niveau des scènes observées via une couche RAG classique. L'ensemble tourne localement, sans dépendance cloud. Évalué sur le benchmark NaVQA, EmbodiedLGR-Agent atteint des performances état de l'art sur les temps d'inférence et de requête pour les agents robotiques embarqués, tout en maintenant une précision compétitive sur la tâche globale de question-réponse spatiale. Le système a également été déployé sur un robot physique réel, validant son utilité hors simulation. Ce qui mérite attention, c'est moins la précision brute que la latence : dans les interactions humain-robot, un agent qui répond "où sont les ciseaux ?" en temps humain change radicalement l'expérience utilisateur. La majorité des architectures mémoire robotiques actuelles sacrifient la réactivité à la richesse sémantique, ou inversement. L'approche hybride graphe + RAG tente de résoudre ce compromis sans exploser les ressources de calcul embarqué. Le déploiement sur robot physique, et non en simulation pure, est un signal concret, même si l'article ne précise pas la plateforme matérielle ni les métriques de latence chiffrées en millisecondes, ce qui limite la comparabilité directe avec d'autres systèmes. L'enjeu de la mémoire sémantique-spatiale est un chantier ouvert depuis plusieurs années dans la communauté robotique, avec des approches comme les scene graphs neuraux, ConceptGraphs ou encore les travaux de SayPlan. EmbodiedLGR se positionne sur le segment des architectures légères et déployables sur matériel contraint, là où des solutions comme celles de Boston Dynamics ou des startups comme Skild AI misent plutôt sur la puissance de calcul embarquée ou le traitement distant. Sur le front européen, des acteurs comme Enchanted Tools (Mirokaï) ou Wandercraft travaillent également sur la cognition embarquée, mais dans des contextes applicatifs distincts. Les prochaines étapes naturelles seraient une évaluation sur des benchmarks plus récents (Habitat, OpenEQA) et une publication des temps de latence mesurés sur plateforme physique.

RechercheOpinion
1 source
DART : commande prédictive augmentée par apprentissage pour la manipulation bi-bras non préhensile
46arXiv cs.RO 

DART : commande prédictive augmentée par apprentissage pour la manipulation bi-bras non préhensile

Des chercheurs ont publié sur arXiv (référence 2604.17833) les travaux autour de DART, un framework bimanuel conçu pour la manipulation non préhensile d'objets posés sur un plateau. L'approche repose sur un contrôleur prédictif non linéaire (MPC) couplé à un contrôleur d'impédance par optimisation, permettant de déplacer des objets sur le plateau sans les saisir directement. Le système évalue trois stratégies de modélisation de la dynamique plateau-objet : un modèle analytique physique, un modèle par régression en ligne adaptatif en temps réel, et un modèle de dynamique entraîné par apprentissage par renforcement (RL), ce dernier offrant une meilleure généralisation sur des objets aux propriétés variées. Les évaluations ont été réalisées en simulation sur des objets de masses, géométries et coefficients de friction différents. Les auteurs revendiquent que DART constitue le premier framework dédié à ce type de tâche en configuration bimanuelle. L'intérêt technique de DART réside dans la comparaison rigoureuse des trois approches de modélisation sur des métriques concrètes : temps de stabilisation, erreur en régime permanent, effort de contrôle et généralisation. Ce benchmark interne est utile pour les équipes d'intégration robotique qui doivent choisir entre modèles physiques (précis mais rigides), adaptation en ligne (réactive mais computationnellement coûteuse) et RL (flexible mais plus difficile à certifier). L'association MPC et contrôleur d'impédance est une piste crédible pour la manipulation d'objets fragiles ou instables, un verrou important en robotique de service. Toutefois, la validation reste strictement en simulation : le passage au réel implique des défis de perception, de latence et de calibration que le papier ne traite pas encore. Ce travail s'inscrit dans un intérêt croissant pour la robotique de service en hôtellerie et restauration, où des acteurs comme Bear Robotics (Servi), Keenon Robotics ou encore Enchanted Tools (Miroki, développé en France) positionnent leurs plateformes sur des tâches de transport et de service en salle. Les approches dominantes jusqu'ici privilégient la navigation autonome avec préhension classique ; la manipulation non préhensile sur plateau reste peu explorée à l'échelle produit. La prochaine étape naturelle pour DART serait une validation sur plateforme physique, avec des bras commerciaux type Franka Research 3 ou Universal Robots, avant d'envisager une intégration dans un robot mobile de service.

UEEnchanted Tools (Miroki, France) est cité comme acteur du service robotique susceptible de bénéficier de ce type de manipulation non préhensile sur plateau, mais le travail reste en simulation sans transfert réel annoncé.

RecherchePaper
1 source
Modèles fondation en robotique : revue complète des méthodes, modèles, jeux de données, défis et perspectives
47arXiv cs.RO 

Modèles fondation en robotique : revue complète des méthodes, modèles, jeux de données, défis et perspectives

Une revue systématique publiée sur arXiv (2604.15395) recense l'état de l'art des modèles de fondation appliqués à la robotique, couvrant l'ensemble du spectre allant des grands modèles de langage (LLM) aux architectures vision-langage-action (VLA). Les auteurs structurent leur analyse en cinq phases historiques distinctes, depuis les premières intégrations de modèles NLP et vision par ordinateur jusqu'aux déploiements multi-sensoriels en environnement réel. La taxonomie proposée examine six axes : les types de modèles employés (LLM, VFM, VLM, VLA), les architectures de réseaux de neurones sous-jacentes, les paradigmes d'apprentissage, les stades d'incorporation des connaissances, les tâches robotiques ciblées, et les domaines applicatifs industriels. L'étude recense également les datasets publics utilisés pour l'entraînement et l'évaluation sur ces différentes tâches. L'intérêt de ce travail pour les intégrateurs et les décideurs industriels réside dans sa cartographie des capacités réelles versus annoncées des VLA en déploiement. Le passage d'agents mono-tâche et spécialisés vers des agents adaptatifs multi-fonctions à usage général constitue le fil directeur de l'analyse. Les auteurs traitent explicitement du gap simulation-réalité (sim-to-real), de la généralisation inter-embodiment (cross-embodiment), et de la planification à horizon long, trois verrous techniques qui conditionnent la commercialisation à grande échelle. La revue identifie aussi les défis ouverts et les directions de recherche prometteuses, utiles pour orienter des feuilles de route R&D. Ce survey s'inscrit dans une accélération documentée depuis 2022, portée par des laboratoires comme Google DeepMind (RT-2, π0), Physical Intelligence, Figure AI, et Unitree, qui ont tous misé sur les VLA comme colonne vertébrale de leurs systèmes. Côté européen, des acteurs comme Enchanted Tools ou Wandercraft n'apparaissent pas dans ce corpus, ce qui reflète un déséquilibre de publication favorable aux équipes nord-américaines et asiatiques. La revue ne constitue pas un benchmark expérimental indépendant mais une synthèse bibliographique, ce qui en fait un point d'entrée solide pour un ingénieur robotique cherchant à situer une technologie ou comparer des approches, sans remplacer une évaluation terrain des solutions commerciales disponibles.

UELe déséquilibre de publication constaté, acteurs FR/EU (Enchanted Tools, Wandercraft) absents du corpus, souligne un déficit de visibilité des équipes européennes dans la recherche VLA, ce qui peut biaiser les benchmarks de référence utilisés par les industriels pour orienter leurs feuilles de route R&D.

RecherchePaper
1 source
Calibration main-oeil en continu pour la manipulation robotique en environnement ouvert
48arXiv cs.RO 

Calibration main-oeil en continu pour la manipulation robotique en environnement ouvert

Une équipe de chercheurs a publié sur arXiv (arXiv:2604.15814) un framework d'étalonnage main-oeil continu (continual hand-eye calibration) destiné aux robots manipulateurs déployés dans des environnements ouverts et changeants. Le problème adressé est précis : les modèles de calibration basés sur le deep learning perdent leur précision sur les scènes précédemment apprises dès qu'ils s'adaptent à un nouvel environnement, un phénomène connu sous le nom d'oubli catastrophique (catastrophic forgetting). Le framework proposé repose sur deux composants distincts. Le premier, SARS (Spatial-Aware Replay Strategy), construit un buffer de rejeu géométriquement uniforme qui couvre l'espace de poses de chaque scène sans redondance, en sélectionnant les points de vue les plus informatifs plutôt que les frames adjacentes. Le second, SPDD (Structure-Preserving Dual Distillation), décompose la connaissance de localisation en deux niveaux, la structure grossière de la scène et la précision fine de pose, puis applique une distillation séparée pour préserver les deux dimensions lors des adaptations successives. Les expériences sur plusieurs datasets publics confirment que le modèle maintient la précision sur les scènes passées tout en s'adaptant aux nouvelles. L'enjeu industriel est réel : un bras manipulateur recalibré pour une nouvelle cellule de production ne devrait pas perdre sa précision sur les postes précédents. C'est le problème quotidien des intégrateurs qui déploient des robots dans des lignes flexibles ou multi-produits. La plupart des approches actuelles imposent soit un recalibrage complet à chaque changement de scène, soit acceptent une dégradation progressive des performances sur les configurations antérieures. Ce travail propose une voie intermédiaire via l'apprentissage continu structuré, sans recourir à un replay naïf qui ne suffit pas à enrayer l'oubli. L'approche par distillation duale est notamment pertinente car elle distingue deux types d'erreur, positionnement global et précision locale, ce que les méthodes monolithiques ne font pas. Ce travail s'inscrit dans un champ de recherche en forte activité depuis 2022, où la robustesse de la calibration visuelle en conditions réelles est identifiée comme l'un des goulots d'étranglement pour le passage à l'échelle des manipulateurs autonomes. La localisation visuelle pour la calibration main-oeil emprunte aux techniques de Visual Place Recognition (VPR) et de relocalisation utilisées en navigation mobile, mais les contraintes de précision sous-millimétrique propres à la manipulation y ajoutent une difficulté spécifique. Parmi les acteurs qui travaillent sur des problèmes adjacents figurent des équipes comme Physical Intelligence (pi) avec Pi-0, ou des laboratoires comme le Stanford AI Lab et ETH Zurich sur la sim-to-real calibration. En France, des acteurs comme Enchanted Tools et Pollen Robotics, qui développent des plateformes d'interaction physique, sont directement concernés par ce type de verrou. La prochaine étape naturelle pour ce framework serait une validation sur des données industrielles réelles et une intégration dans des pipelines de déploiement multi-cellules, que les auteurs n'ont pas encore annoncée.

UEEnchanted Tools et Pollen Robotics, qui développent des plateformes de manipulation physique en France, sont directement concernés par ce verrou de calibration continue, susceptible de réduire les coûts de redéploiement en production flexible.

RecherchePaper
1 source
JD.com Launches “Robot Ambulance” Service, Targets 50 Cities in Three Years
49Pandaily 

JD.com Launches “Robot Ambulance” Service, Targets 50 Cities in Three Years

JD.com, le géant chinois du e-commerce, a lancé officiellement son service baptisé "robot ambulance", un réseau de maintenance et de réparation dédié aux robots commerciaux. Le service couvre les robots humanoïdes, quadrupèdes et robots compagnons IA, et propose une gamme complète de prestations : diagnostics de pannes, remplacement de batteries, tests de performance, maintenance esthétique et recyclage d'équipements. Déjà opérationnel à Pékin, le dispositif doit s'étendre à plus de 50 grandes villes chinoises d'ici trois ans. JD.com vise également une expansion internationale vers l'Europe, l'Amérique du Nord, le Moyen-Orient et l'Asie-Pacifique, avec des opérations déjà amorcées dans certains pays européens. Pour soutenir cette croissance, l'entreprise s'est fixé l'objectif de recruter plus de 10 000 ingénieurs spécialisés en robotique sur la même période. Ce lancement signale une mutation structurelle dans l'industrie robotique chinoise : le marché ne se limite plus à la fabrication et à la vente de robots, il génère désormais une demande de services après-vente à l'échelle industrielle. Pour les intégrateurs et les opérateurs B2B qui déploient des flottes humanoïdes ou quadrupèdes, l'absence d'infrastructure de maintenance fiable reste l'un des principaux freins à l'adoption. En positionnant une offre de service centralisée et multi-marques, JD.com comble un vide réel, tout en consolidant sa position de plateforme logistique dans l'écosystème robot. C'est aussi un signal que le volume de robots déployés en conditions réelles est désormais suffisant pour justifier une économie de la maintenance. JD.com n'est pas un acteur robotique au sens strict : c'est un opérateur logistique qui utilise des robots dans ses propres entrepôts depuis des années, et qui capitalise maintenant sur cette expertise opérationnelle pour en faire un service tiers. Les partenariats annoncés avec Unitree Robotics, Songyan Dynamics, Deep Robotics et AGIBOT, tous des acteurs majeurs du marché humanoïde et quadrupède chinois, donnent au service une couverture multi-constructeurs crédible. Aucun équivalent de cette échelle n'existe à ce jour en Europe, où des acteurs comme Enchanted Tools ou Wandercraft opèrent encore sans réseau de service structuré. La prochaine étape déclarée est l'extension internationale, dont le calendrier précis reste à confirmer.

UEJD.com ayant déjà amorcé des opérations dans certains pays européens, ce service crée une pression compétitive sur les intégrateurs européens et signale un vide structurel dans l'offre de maintenance de flottes robotiques en Europe.

Le vrai défi de la robotique n’est pas technique
50Robot Magazine FR 

Le vrai défi de la robotique n’est pas technique

Dominique Carricart, expert en intégration robotique industrielle, publie le 16 avril 2026 une tribune dans laquelle il défend une thèse contre-intuitive : depuis trente ans de terrain, les projets robotiques n'échouent pas pour des raisons techniques, mais pour des raisons humaines. Son point de départ est autobiographique : en 1996, embauché chez Renault à 23 ans pour accompagner la transition des robots hydrauliques vers les robots électriques, il se heurte immédiatement à la résistance de techniciens expérimentés qui maîtrisaient une logique câblée que les écoles n'enseignaient déjà plus. Ce choc de cultures lui a appris une règle qu'il observe depuis dans chaque projet : l'intégration d'une technologie ne se réduit pas à son installation. La vraie variable d'échec, c'est la question que chaque opérateur se pose en silence dès qu'un robot entre dans l'atelier, "Est-ce que mon emploi va disparaître ?", et que les directions évitent systématiquement d'aborder. Cette peur non adressée se traduit en coûts opérationnels concrets : désengagement, sabotage passif, robots tournant durablement sous leurs capacités nominales, pannes non signalées. Carricart identifie quatre profils récurrents chez les industriels : ceux qui refusent la technologie par crainte du risque, ceux qui l'utilisent sur un périmètre très restreint sans aller plus loin, ceux qui ont investi dans un robot aujourd'hui à l'arrêt faute de compétences internes pour le reprogrammer, et enfin les plus paradoxaux, ceux qui ont éliminé tout contrôle humain au profit de l'automatisation et génèrent des taux de rebut élevés. L'enseignement commun à ces quatre cas : le problème n'est jamais la machine. C'est la gouvernance humaine qui l'entoure. Pour les intégrateurs et les directeurs industriels, cette grille de lecture est directement actionnable : le ROI d'un déploiement robotique est autant une fonction de l'accompagnement du changement que de la performance mécanique. Ce constat prend une dimension nouvelle avec l'émergence des robots humanoïdes, dont plusieurs modèles étaient visibles au salon Global Industrie 2026. Leur argument commercial central, les ateliers existants étant conçus pour des corps humains, un robot anthropomorphe s'y intègre sans refonte d'infrastructure, est réel, mais Carricart souligne un effet collatéral ignoré : l'impact psychologique d'un humanoïde mobile est radicalement différent de celui d'un bras dans une cage. Un manipulateur industriel est perçu comme un outil ; un robot qui marche et saisit des objets dans l'espace de travail humain déclenche des réponses émotionnelles d'une autre nature. L'auteur, dont la tribune s'inscrit dans un contexte de montée en puissance des acteurs du secteur, Figure, Boston Dynamics, 1X, et côté francophone des initiatives comme Enchanted Tools, ne cite pas de déploiements chiffrés ni de données comparatives, ce qui limite la portée empirique de l'argument, mais la trajectoire observée depuis 1996 donne à son propos une crédibilité de praticien que les annonces de laboratoire ne contredisent pas.

UELa grille de lecture de Carricart sur la conduite du changement est directement applicable aux industriels français et européens évaluant un déploiement humanoïde après Global Industrie 2026, avec une mention explicite d'Enchanted Tools comme acteur francophone émergent.

IndustrielOpinion
1 source