接触豊富な操作タスクのための拡散ベースインピーダンス学習
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2509.19696v1発表形式:クロス
要約:学習手法は情報領域における動作生成において優れた成果を挙げていますが、エネルギー領域における物理的相互作用のために設計されたものではありません。インピーダンス制御は物理的相互作用を形作りますが、実現可能なインピーダンスパラメータを選択することによるタスクに応じた調整が必要です。本稿では、両方の領域を組み合わせた拡散ベースインピーダンス学習フレームワークを提案します。外部レンチへのクロスアテンションを備えたTransformerベースの拡散モデルは、シミュレートされたゼロフォース軌跡(sZFT)を再構成します。これは、並進と回転の両方のタスク空間挙動を捉えます。回転については、幾何学的整合性を確保する新しいSLERPベースのクォータニオンノイズスケジューラを導入します。再構成されたsZFTは、次にエネルギーベースの推定器に渡され、剛性と減衰パラメータが更新されます。タスク軸以外のインピーダンスを低減しながら、タスク方向の剛性を維持する方向性ルールが適用されます。トレーニングデータは、Apple Vision Proを用いた遠隔操作により、パルクールシナリオとロボット支援療法タスクについて収集されました。数万サンプルのみで、モデルはサブミリメートルの位置精度とサブ度の回転精度を達成しました。そのコンパクトなモデルサイズは、KUKA LBR iiwaロボットでのリアルタイムトルク制御と自律的な剛性適応を可能にしました。コントローラは、力と速度の制限内でスムーズなパルクール移動を達成し、トレーニングデータセットにペグ固有のデモがない状態で、円柱状、正方形、星型のペグ挿入において30/30の成功率を達成しました。Transformerベースの拡散モデル、ロボットコントローラ、Apple Vision Pro遠隔操作フレームワークのすべてのコードは公開されています。これらの結果は、物理的相互作用のためのモデルベース制御と軌道生成のための学習ベース手法を融合したPhysical AIに向けた重要な一歩を示しています。
原文(英語)を表示
Title (EN): Diffusion-Based Impedance Learning for Contact-Rich Manipulation Tasks
arXiv:2509.19696v1 Announce Type: cross
Abstract: Learning methods excel at motion generation in the information domain but are not primarily designed for physical interaction in the energy domain. Impedance Control shapes physical interaction but requires task-aware tuning by selecting feasible impedance parameters. We present Diffusion-Based Impedance Learning, a framework that combines both domains. A Transformer-based Diffusion Model with cross-attention to external wrenches reconstructs a simulated Zero-Force Trajectory (sZFT). This captures both translational and rotational task-space behavior. For rotations, we introduce a novel SLERP-based quaternion noise scheduler that ensures geometric consistency. The reconstructed sZFT is then passed to an energy-based estimator that updates stiffness and damping parameters. A directional rule is applied that reduces impedance along non task axes while preserving rigidity along task directions. Training data were collected for a parkour scenario and robotic-assisted therapy tasks using teleoperation with Apple Vision Pro. With only tens of thousands of samples, the model achieved sub-millimeter positional accuracy and sub-degree rotational accuracy. Its compact model size enabled real-time torque control and autonomous stiffness adaptation on a KUKA LBR iiwa robot. The controller achieved smooth parkour traversal within force and velocity limits and 30/30 success rates for cylindrical, square, and star peg insertions without any peg-specific demonstrations in the training data set. All code for the Transformer-based Diffusion Model, the robot controller, and the Apple Vision Pro telemanipulation framework is publicly available. These results mark an important step towards Physical AI, fusing model-based control for physical interaction with learning-based methods for trajectory generation.
Published: 2025-09-24 19:00 UTC