Aller au contenu principal

Dossier Enchanted Tools — Mirokaï — page 2

64 articles · page 2 sur 2

Enchanted Tools et Mirokaï : robot social français à roues, animations expressives, expérimentations en hôpitaux et hôtels.

Prix RBR50 2026 de l'innovation en robotique
51Robotics Business Review BusinessActu

Prix RBR50 2026 de l'innovation en robotique

The Robot Report a publié pour la quinzième année consécutive son palmarès RBR50, sélectionnant 50 organisations mondiales, entre entreprises, associations et institutions académiques, pour leur innovation technologique et commerciale en robotique. L'édition 2026 intègre à la fois des habitués et de nouveaux entrants, avec une couverture allant des capteurs industriels aux rovers martiens, en passant par des solutions de fabrication, de logistique, de nouveaux matériaux et de processeurs. Parmi les distinctions spéciales : Physical Intelligence (San Francisco, fondée en 2023) reçoit le titre de Startup de l'Année ; Harvard University décroche le prix Application de l'Année pour un système d'assistance aux personnes souffrant de limitations motrices du bras ; Tatum Robotics remporte la catégorie Robots for Good pour ses applications auprès de personnes sourdes-aveugles. La cérémonie de remise des prix est prévue lors du dîner de gala du Robotics Summit & Expo à Boston. Le palmarès 2026 reflète plusieurs dynamiques structurantes pour les acteurs industriels : essor des manipulateurs mobiles, développement des systèmes portables (wearables) et accélération de l'IA appliquée à la robotique physique. La distinction accordée à Physical Intelligence est particulièrement significative : la startup a développé pi0, l'un des premiers modèles VLA (Vision-Language-Action) à démontrer des capacités de généralisation sur des tâches physiques variées, sans reprogrammation tâche par tâche. Pour les intégrateurs et décideurs industriels, ce type de reconnaissance signale quels segments technologiques atteignent un seuil de maturité commerciale justifiant un investissement. Le palmarès inclut également les grands fournisseurs de solutions complètes pour la fabrication et la logistique, ainsi que des fabricants de composants critiques (capteurs, actionneurs, processeurs). L'inclusion d'une approche inédite de confection textile automatisée et d'un rover en opération sur Mars illustre la volonté du jury de couvrir l'étendue réelle du champ robotique en 2026. Créé en 2012, le RBR50 s'est imposé comme un repère annuel dans le secteur : selon The Robot Report, plusieurs lauréats passés ont levé des millions de dollars dans les mois suivant leur sélection, et nombre d'entre eux sont revenus sur la liste avec de nouvelles innovations. L'édition 2026 intègre aussi une dimension institutionnelle et politique notable : l'Association for Advancing Automation travaille à convaincre le Congrès américain d'adopter une stratégie nationale en robotique, tandis que MassRobotics accompagne des startups internationales dans leur accès au marché américain. Aucun acteur français ni européen n'est explicitement mentionné dans le communiqué public, bien que des entreprises comme Wandercraft, Enchanted Tools ou Pollen Robotics figurent régulièrement dans ce type de palmarès. À noter : l'article source est un teaser promotionnel invitant au téléchargement d'un rapport complet accessible sur formulaire, et ne détaille pas les critères de sélection par organisation.

1 source
Combler le fossé entre les corps : édition vidéo inter-embodiment disentangled
52arXiv cs.RO 

Combler le fossé entre les corps : édition vidéo inter-embodiment disentangled

Une équipe de chercheurs a publié le 6 mai 2026 sur arXiv (réf. 2605.03637) un framework génératif pour convertir des vidéos de démonstration humaine en séquences d'exécution robotique plausibles, sans données appariées humain-robot. La méthode décompose la vidéo source en deux espaces latents orthogonaux: l'un encodant la tâche accomplie, l'autre la morphologie du corps en mouvement. Un double objectif contrastif impose cette séparation en minimisant l'information mutuelle entre les deux espaces pour garantir leur indépendance, tout en maximisant la cohérence intra-espace pour stabiliser les représentations. Un adaptateur à faible coût paramétrique injecte ces codes latents dans un modèle de diffusion vidéo figé, produisant des démonstrations robotiques morphologiquement précises et cohérentes dans le temps à partir d'une seule séquence humaine. L'enjeu est critique: les approches existantes génèrent des représentations enchevêtrées où l'information de tâche reste couplée à la cinématique humaine spécifique, ce qui bloque le transfert vers d'autres morphologies. En découplant explicitement ces deux dimensions, la méthode ouvre la voie à l'exploitation des vastes corpus de vidéos humaines disponibles sur internet pour entraîner des politiques de manipulation robotique, sans collecte de démonstrations robot coûteuse par télé-opération. Les expériences rapportent des vidéos générées temporellement consistantes et morphologiquement fidèles, bien que l'abstract ne fournisse pas de métriques quantitatives comparatives avec les baselines; les résultats visuels restent la principale validation. Pour un intégrateur ou un décideur industriel, la promesse est de réduire significativement le coût de labeling nécessaire à l'apprentissage de nouveaux comportements de manipulation. Cette publication s'inscrit dans une compétition intense autour des politiques de manipulation généralisables: Pi-0 (Physical Intelligence), GR00T N2 (NVIDIA) et OpenVLA (UC Berkeley) cherchent tous à réduire la dépendance aux démonstrations robot propriétaires. L'approche par édition vidéo emprunte un chemin différent des VLA classiques: plutôt qu'apprendre une politique directement depuis des vidéos humaines, elle synthétise d'abord une démonstration robot plausible exploitable par les pipelines d'imitation learning standards. Il s'agit à ce stade d'un preprint préliminaire, sans déploiement industriel ni partenariat annoncé. Le cadre latent disentangled proposé pourrait néanmoins rapidement intéresser des acteurs comme 1X Technologies ou Apptronik, et côté européen, des équipes travaillant sur l'imitation learning comme certains labs INRIA ou des spin-offs de manipulation comme Enchanted Tools.

UEDes équipes INRIA et des spin-offs de manipulation comme Enchanted Tools pourraient bénéficier de cette approche pour réduire le coût de collecte de démonstrations robotiques, mais aucun partenariat ou déploiement européen n'est impliqué à ce stade.

IA physiqueOpinion
1 source
L'IA physique est la véritable révolution de l'industrie manufacturière
53Robotics Business Review 

L'IA physique est la véritable révolution de l'industrie manufacturière

Pour Steve Ricketts, vice-président du développement commercial chez Fictiv, 2026 marque le basculement de l'IA conversationnelle vers ce qu'il nomme l'"IA physique" : la convergence entre réseaux de neurones et systèmes mécaniques embarqués. Sur le terrain, cette transition se manifeste dans trois segments concrets : les robots mobiles autonomes (AMR) capables d'interagir avec les rayonnages en bout de ligne, les cobots équipés de perception haptique pour l'assemblage électronique aux côtés d'opérateurs humains, et les bras robotisés dotés de vision IA pour le contrôle qualité, capables selon Fictiv de détecter des microfissures dans des aubes de turbines invisibles à l'oeil nu. L'article ne fournit pas de chiffres de déploiement précis et s'appuie sur des cas génériques. Sur le plan industriel, MISUMI, distributeur japonais de composants coté en bourse, a acquis Fictiv, marketplace de fabrication à la demande (CNC, injection, impression 3D). La combinaison des deux a permis à un client entreprise non nommé de rapatrier sa production aux États-Unis, en consolidant flux matière et production multi-régions pour accélérer le ramp-up. Ce qui distingue cette vague des précédentes est le raccourcissement de la boucle de développement via les pipelines "sim-to-real" : des agents IA s'entraînent dans des jumeaux numériques photoréalistes, exécutant des millions d'itérations en quelques heures avant tout déploiement physique. Cette approche permet de traiter des tâches à haute variabilité, comme le tri de ferraille non structurée ou la navigation en couloir hospitalier, jusqu'ici impossibles à automatiser de façon fiable. Pour les intégrateurs et les décideurs industriels, le signal opérationnel est double : le rôle du développeur bascule de "programmeur" à "entraîneur", et le critère de sélection des plateformes se déplace vers la capacité à absorber des feedbacks terrain en production réelle. Le vrai goulot d'étranglement identifié pour 2026 n'est plus algorithmique mais physique : la "scaling wall", soit la capacité à fabriquer des milliers d'unités de hardware en qualité constante dans une supply chain mondiale sous tension. Il faut noter que cet article est signé par le VP de Fictiv lui-même, lui conférant une tonalité promotionnelle assumée plutôt qu'analytique indépendante. Dans le paysage concurrentiel, Amazon déploie déjà des humanoïdes Digit d'Agility Robotics dans ses entrepôts, tandis que Boston Dynamics, Figure et 1X intensifient leurs pipelines commerciaux. Du côté européen, des acteurs comme Enchanted Tools ou Wandercraft avancent sur des niches spécifiques (robotique hospitalière, exosquelettes), mais restent absents de cette analyse orientée marché nord-américain. Le prochain jalon annoncé est la conférence Robotics Summit & Expo de Boston, en mai 2026, où Ricketts interviendra sur le thème "Emergent Robotics : AI at the Edge of Hardware Innovation".

IA physiqueOpinion
1 source
IA incarnée et création artistique : Alter-Art, un robot avatar pour explorer l'art
54arXiv cs.RO 

IA incarnée et création artistique : Alter-Art, un robot avatar pour explorer l'art

Des chercheurs ont publié sur arXiv (arXiv:2604.26473) un travail exploratoire autour du paradigme qu'ils nomment "Alter-Art" : permettre à un artiste humain d'habiter un corps robotique, baptisé Alter-Ego, pour créer dans le monde physique. Le système repose sur une téléopération immersive combinée à une actuation dite "compliant" (articulations à compliance variable, capables d'absorber les forces de contact sans rigidité excessive), offrant un retour sensoriel en première personne. Trois domaines artistiques ont été testés : la danse, le théâtre (aux côtés d'acteurs humains en chair et en os) et la peinture sur toile. L'article ne communique pas de spécifications hardware précises, nombre de degrés de liberté, payload, latence de la boucle de téléopération, ce qui limite l'évaluation externe des performances réelles du système. L'intérêt de ce travail pour la communauté robotique ne réside pas tant dans les specs techniques que dans le cadre conceptuel qu'il propose : l'embodiment comme principe de design central, distinct à la fois du robot autonome et du robot collaboratif. Les retours qualitatifs des artistes indiquent qu'un sentiment de présence dans le corps robotique se développe rapidement, et que les contraintes physiques du robot, cinématique limitée, inertie, précision motrice différente, influencent activement le processus créatif plutôt que de simplement le contraindre. Pour les intégrateurs et chercheurs en téléprésence, cela valide l'idée que la compliance mécanique n'est pas qu'un paramètre de sécurité mais un vecteur d'expressivité. L'accessibilité artistique pour des personnes à mobilité réduite est également mentionnée comme application concrète. Ce travail s'inscrit dans une tendance plus large autour de la téléprésence incarnée (embodied telepresence), un champ où des groupes comme ceux travaillant sur les interfaces haptiques (Shadow Robotics, Kinova) ou les robots de téléprésence sociale croisent désormais les arts vivants. En France, des acteurs comme Enchanted Tools (Miroki) et Pollen Robotics (Reachy) explorent des territoires adjacents, interaction sociale et manipulation expressive. L'équipe ne précise pas d'étapes de déploiement ni de partenariats industriels annoncés ; l'article reste à ce stade une contribution académique exploratoire, sans prototype commercialisé ni timeline de mise sur le marché.

UELes résultats sur la compliance mécanique comme vecteur d'expressivité pourraient nourrir la réflexion de design des acteurs français comme Enchanted Tools (Miroki) et Pollen Robotics (Reachy), actifs dans l'interaction sociale et la manipulation expressive, sans impact opérationnel immédiat.

RecherchePaper
1 source
Conception de processus par personas pour des environnements de travail humain-robot inclusifs pour les personnes en situation de handicap
55arXiv cs.RO 

Conception de processus par personas pour des environnements de travail humain-robot inclusifs pour les personnes en situation de handicap

Une équipe de recherche publie sur arXiv (arXiv:2604.26527) une méthodologie de conception de postes de travail humain-robot adaptés aux personnes en situation de handicap, reposant sur une approche dite "par personas". Le principe : plutôt que de concevoir un système pour un individu spécifique, les chercheurs abstraient les handicaps les plus fréquents en milieu professionnel sous forme de personas typiques, puis décomposent chaque processus de travail en actions séquentielles. Pour chaque combinaison action-persona, des stratégies d'adaptation sont développées par design thinking, classées selon le niveau d'assistance robotique requis, puis encodées dans un arbre de comportement (behavior tree). Le système a été démontré sur une tâche de pliage de boîtes en collaboration avec un robot, en couvrant sept personas présentant des handicaps différents. L'enjeu industriel est réel : les systèmes HRI existants pour l'intégration des travailleurs handicapés sont aujourd'hui quasi exclusivement personnalisés, ce qui les rend difficilement scalables au-delà d'un utilisateur unique. L'approche par personas vise à combler ce manque en permettant une conception "universelle" sans nécessiter une expertise clinique pointue pour chaque déploiement. L'utilisation d'arbres de comportement offre en outre une adaptation dynamique en ligne, le robot ajuste son niveau d'intervention en temps réel selon le profil identifié de l'opérateur. Les auteurs rapportent des "résultats prometteurs", formulation prudente qui reflète le stade préliminaire de la démonstration : une seule tâche de laboratoire, sept personas simulées, sans validation terrain réelle. Ce travail s'inscrit dans un champ de recherche en croissance rapide, à l'intersection de la cobotique industrielle et du design inclusif. Le paradigme du "universal design", issu de l'architecture et de l'ergonomie, est ici transposé à la robotique collaborative, un transfert encore peu documenté dans la littérature HRI. Aucun acteur industriel ni partenaire terrain n'est mentionné dans ce preprint, ce qui limite la portée immédiate des conclusions. Les prochaines étapes naturelles seraient une validation avec des utilisateurs réels en situation de handicap, et une extension à des processus industriels plus complexes que le pliage de carton. Du côté européen, des acteurs comme Enchanted Tools ou des laboratoires spécialisés en robotique d'assistance (INRIA, DLR) pourraient trouver dans cette approche un cadre méthodologique directement applicable à leurs travaux sur l'autonomie et l'adaptation comportementale.

UELe cadre méthodologique proposé pourrait être adopté par des laboratoires européens comme l'INRIA ou le DLR pour structurer leurs travaux sur l'adaptation comportementale des cobots en contexte inclusif.

RecherchePaper
1 source
Navigation sociale à long terme pour l'assistance extérieure centrée sur l'humain
56arXiv cs.RO 

Navigation sociale à long terme pour l'assistance extérieure centrée sur l'humain

Des chercheurs ont publié sur arXiv (référence 2604.26839) un cadre de navigation sociale en extérieur baptisé "Walk with Me", conçu pour assister des humains dans des environnements ouverts à partir d'instructions en langage naturel. Le système fonctionne sans carte préétablie (map-free) : il s'appuie uniquement sur le GPS et des points d'intérêt légers issus d'une API cartographique publique pour identifier les destinations sémantiques et proposer des waypoints. L'architecture est hiérarchique à deux niveaux : un modèle vision-langage (VLM) de haut niveau traduit les intentions abstraites en séquences de waypoints, tandis qu'un modèle vision-langage-action (VLA) de bas niveau exécute la navigation au sol en temps réel. Lorsque des situations complexes surgissent, comme des traversées bondées ou des zones à risque, le système bascule automatiquement vers le raisonnement de sécurité du VLM, pouvant imposer un comportement "stop-and-wait" explicite. L'apport principal est l'élimination de la dépendance aux cartes HD préconstruites, qui représentent un coût d'infrastructure significatif pour tout déploiement de robots d'assistance en milieu urbain ou semi-public. Les approches classiques basées sur l'apprentissage restent majoritairement confinées aux intérieurs et aux trajets courts ; "Walk with Me" vise explicitement à combler ce fossé pour des scénarios extérieurs à longue portée. Le mécanisme de routage adaptatif, qui distingue les segments routiniers délégués au VLA des situations complexes renvoyées au VLM, constitue une piste crédible pour économiser les ressources de calcul tout en maintenant la conformité sociale. À noter cependant : le papier ne publie pas de métriques quantifiées sur des scénarios réels, ce qui rend difficile l'évaluation du reality gap et de la robustesse hors laboratoire. Cette recherche s'inscrit dans une effervescence autour des VLA pour la navigation sociale, aux côtés de travaux comme NaviLLM ou les systèmes piétons de Boston Dynamics Research. La navigation extérieure à longue portée reste un verrou non résolu pour les robots humanoïdes commerciaux actuels, Figure AI (Figure 03), Agility Robotics (Digit), Sanctuary AI, qui opèrent encore majoritairement dans des environnements contrôlés et cartographiés. En Europe, Enchanted Tools et Wandercraft travaillent sur des assistants mobiles, mais dans des contextes d'intérieur structuré. Aucun partenaire industriel ni calendrier de déploiement n'est mentionné dans cette publication arXiv, la classant fermement dans la catégorie recherche académique. Les prochaines étapes attendues incluent une validation sur des benchmarks standardisés de navigation sociale et des tests urbains documentés en conditions non contrôlées.

RechercheOpinion
1 source
GIST : extraction de connaissances multimodales et ancrage spatial par topologie sémantique intelligente
57arXiv cs.RO 

GIST : extraction de connaissances multimodales et ancrage spatial par topologie sémantique intelligente

Des chercheurs ont publié GIST (Grounded Intelligent Semantic Topology), un pipeline de traitement multimodal capable de transformer un nuage de points 3D capturé avec un équipement grand public en une carte de navigation sémantiquement annotée. Le système construit d'abord une carte d'occupation 2D, en extrait la topologie spatiale, puis y superpose une couche sémantique légère par sélection intelligente de keyframes. Quatre modules sont démontrés en aval : un moteur de recherche sémantique capable d'inférer des alternatives catégorielles quand la correspondance exacte échoue, un localisateur one-shot atteignant 1,04 mètre d'erreur de translation moyenne (top-5), un classificateur de zones segmentant le plan de sol en régions sémantiques de haut niveau, et un générateur d'instructions de navigation en langage naturel ancré visuellement dans des repères contextuels. Une évaluation in situ sur cinq participants affiche un taux de succès de navigation de 80 % en s'appuyant uniquement sur des instructions verbales. L'intérêt pour les intégrateurs industriels réside dans l'approche bas coût : GIST ne requiert pas de LiDAR haute précision, mais exploite un nuage de points mobile grand public, ce qui abaisse significativement le seuil d'entrée pour des déploiements en entrepôt, hôpital ou grande surface. La robustesse à la distribution longue des sémantiques visuelles, problème classique dans les environnements retail denses où les rayonnages changent fréquemment, est explicitement adressée, là où les VLMs (Vision-Language Models) courants échouent sur le grounding spatial en environnement encombré. Cela dit, l'évaluation reste exploratoire (N=5), et les résultats ne constituent pas une validation à l'échelle industrielle. Le papier s'inscrit dans un courant de recherche actif autour de la navigation sémantique pour l'IA incarnée, en concurrence directe avec des approches comme les semantic maps dérivées de NeRF ou les pipelines SLAM enrichis par LLM. Côté Europe, des acteurs comme Enchanted Tools (robots hospitaliers) ou Exotec (systèmes AMR pour entrepôts) pourraient trouver dans ce type de représentation topologique une brique utile pour la localisation fine et la génération d'instructions opérateur. L'article est disponible en preprint sur arXiv (2604.15495) et n'a pas encore été soumis à évaluation par les pairs au moment de sa publication.

UEDes acteurs français comme Enchanted Tools (robots hospitaliers) et Exotec (AMR entrepôts) pourraient exploiter ce type de cartographie sémantique bas coût pour améliorer la localisation fine et la génération d'instructions opérateur, sans investissement LiDAR haute précision.

RecherchePaper
1 source
Maniformer lance une plateforme de données d'IA physique tout-en-un pour préparer l'ère de l'AGI
58Pandaily 

Maniformer lance une plateforme de données d'IA physique tout-en-un pour préparer l'ère de l'AGI

Maniformer, startup chinoise spécialisée dans l'infrastructure de données pour l'IA physique, a officiellement lancé sa plateforme de services de données en un seul guichet, accompagnée de la gamme matérielle MEgo et du système de gouvernance MEgo Engine. La gamme MEgo comprend trois composants : le MEgo Gripper pour la capture de données de manipulation robotique, le MEgo View, un dispositif de collecte portable à tête montée, et le MEgo Engine pour le traitement et la gouvernance des données. Ces outils affichent une précision millimétrique, une synchronisation sub-milliseconde et une perception panoramique supérieure à 300 degrés. Le système est nativement compatible avec le robot G2 Air, garantissant la cohérence entre environnements simulés et réels. Selon Yao Maoqing, président-directeur général, l'entreprise vise une capacité de production de dizaines de millions d'heures de données d'ici 2026, puis des dizaines de milliards d'heures d'ici 2030. Le problème que Maniformer cherche à résoudre est structurel : les données d'interaction physique réelle disponibles pour l'IA incarnée représentent moins de 1/20 000 de ce qui existe pour les grands modèles de langage. Ce déficit, combiné à l'absence de standards, à des problèmes de qualité hétérogène et à des inadéquations entre offre et demande, freine concrètement la commercialisation des robots autonomes. En proposant une infrastructure full-stack couvrant la télé-opération réelle, la collecte sans robot dédié et la génération synthétique par simulation, Maniformer cherche à décorréler la production de données de la disponibilité des plateformes robotiques elles-mêmes, une approche qui, si elle tient ses promesses, pourrait accélérer significativement le cycle sim-to-real pour les intégrateurs et les équipes R&D. L'analogie revendiquée avec l'électricité ou l'eau comme utilities est ambitieuse ; elle reste à valider à l'échelle industrielle. L'entreprise s'inscrit dans un contexte de course mondiale aux données d'entraînement pour robots humanoïdes et manipulateurs, où des acteurs comme Physical Intelligence (Pi-0), Boston Dynamics, Figure AI ou Unitree investissent massivement dans leurs propres pipelines de données propriétaires. La stratégie de Maniformer est différente : se positionner en fournisseur tiers d'infrastructure, à la manière d'un AWS pour la donnée physique. L'initiative "Hive" annoncée vise à fédérer des partenaires mondiaux pour co-construire des standards sectoriels, une démarche de standardisation qui, si elle aboutit, pourrait bénéficier à l'ensemble de l'écosystème, y compris aux acteurs européens comme Enchanted Tools ou Wandercraft qui peinent à constituer des datasets suffisants. La prochaine étape annoncée est le déploiement d'un réseau global de collecte de données, sans calendrier précis communiqué au-delà de l'horizon 2026.

UESi l'initiative 'Hive' de standardisation aboutit, les acteurs européens comme Enchanted Tools ou Wandercraft pourraient bénéficier d'une infrastructure de données partagée pour accélérer leurs pipelines sim-to-real.

Chine/AsieActu
1 source