iconLogo
Published:2026/1/7 7:15:16

ロボットも推せる時代到来!AIで接触動作をマスター✨(超要約:AIデータ生成でロボットが賢くなる話)

ギャル的キラキラポイント✨

● 人間様の動きをVRで再現!楽々データ収集だって💖 ● シミュレーション(仮想空間)で、色んな条件のデータを大量生産! ● 少ないデータからでも、ロボットが賢くなっちゃう魔法🧙‍♀️

詳細解説

● 背景 ロボットに色んなことさせたいけど、データ集めるのが大変だったの😢 でも、この研究は、少ないデータからでもOK🙆‍♀️ 物理シミュレーション(仮想空間での実験)を使って、大量のデータを安く作る方法を開発したんだって!

● 方法 人間がVRでロボットを動かす動きを真似っこ(デモンストレーション)するの! そしたら、その動きを元に、シミュレーションで色んな条件(ロボットの形とか、周りの環境とか)を変えて、データをじゃんじゃん生成🤩

● 結果 少ない人間の動きから、めっちゃ沢山のデータセットが作れるようになったの!🤖 いろんなロボットに対応できるし、物理的に正しいデータだから、ロボットの学習にもってこい🎵

続きは「らくらく論文」アプリで

Physics-Driven Data Generation for Contact-Rich Manipulation via Trajectory Optimization

Lujie Yang / H. J. Terry Suh / Tong Zhao / Bernhard Paus Graesdal / Tarik Kelestemur / Jiuguang Wang / Tao Pang / Russ Tedrake

We present a low-cost data generation pipeline that integrates physics-based simulation, human demonstrations, and model-based planning to efficiently generate large-scale, high-quality datasets for contact-rich robotic manipulation tasks. Starting with a small number of embodiment-flexible human demonstrations collected in a virtual reality simulation environment, the pipeline refines these demonstrations using optimization-based kinematic retargeting and trajectory optimization to adapt them across various robot embodiments and physical parameters. This process yields a diverse, physically consistent dataset that enables cross-embodiment data transfer, and offers the potential to reuse legacy datasets collected under different hardware configurations or physical parameters. We validate the pipeline's effectiveness by training diffusion policies from the generated datasets for challenging contact-rich manipulation tasks across multiple robot embodiments, including a floating Allegro hand and bimanual robot arms. The trained policies are deployed zero-shot on hardware for bimanual iiwa arms, achieving high success rates with minimal human input. Project website: https://lujieyang.github.io/physicsgen/.

cs / cs.RO / cs.AI / cs.LG / cs.SY / eess.SY