論文の概要: Learning Bimanual Manipulation via Action Chunking and Inter-Arm Coordination with Transformers
- arxiv url: http://arxiv.org/abs/2503.13916v1
- Date: Tue, 18 Mar 2025 05:20:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 16:29:12.364051
- Title: Learning Bimanual Manipulation via Action Chunking and Inter-Arm Coordination with Transformers
- Title(参考訳): 動作チャンキングと変換器との相互協調によるバイマニピュレーションの学習
- Authors: Tomohiro Motoda, Ryo Hanai, Ryoichi Nakajo, Masaki Murooka, Floris Erich, Yukiyasu Domae,
- Abstract要約: 両腕の調整と効率性、特に同期行動に重点を置いています。
協調行動を予測する新しい模倣学習アーキテクチャを提案する。
本モデルでは,比較において高い成功率を示し,両手操作のポリシー学習に適したアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 4.119006369973485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robots that can operate autonomously in a human living environment are necessary to have the ability to handle various tasks flexibly. One crucial element is coordinated bimanual movements that enable functions that are difficult to perform with one hand alone. In recent years, learning-based models that focus on the possibilities of bimanual movements have been proposed. However, the high degree of freedom of the robot makes it challenging to reason about control, and the left and right robot arms need to adjust their actions depending on the situation, making it difficult to realize more dexterous tasks. To address the issue, we focus on coordination and efficiency between both arms, particularly for synchronized actions. Therefore, we propose a novel imitation learning architecture that predicts cooperative actions. We differentiate the architecture for both arms and add an intermediate encoder layer, Inter-Arm Coordinated transformer Encoder (IACE), that facilitates synchronization and temporal alignment to ensure smooth and coordinated actions. To verify the effectiveness of our architectures, we perform distinctive bimanual tasks. The experimental results showed that our model demonstrated a high success rate for comparison and suggested a suitable architecture for the policy learning of bimanual manipulation.
- Abstract(参考訳): 人間の生活環境で自律的に動作できるロボットは、様々なタスクを柔軟に処理する能力を持つ必要がある。
1つの重要な要素は、片手では実行が困難である機能を可能にする、協調したバイマニュアル運動である。
近年,双方向運動の可能性に着目した学習モデルが提案されている。
しかし、ロボットの高度な自由度は、制御の推論を困難にしており、左右のロボットアームは状況に応じて動作を調整する必要があるため、より厳密なタスクを実現することは困難である。
この問題に対処するため、両腕間の調整と効率性、特に同期行動に焦点をあてる。
そこで本研究では,協調行動を予測する新しい模倣学習アーキテクチャを提案する。
我々は両腕のアーキテクチャを区別し、スムーズかつ協調的な動作を保証するために同期と時間的アライメントを容易にする中間エンコーダ層であるInter-Arm Coordinated Transformer Encoder (IACE) を付加する。
アーキテクチャの有効性を検証するために,両面的な作業を行う。
実験結果から,本モデルは比較において高い成功率を示し,両面操作のポリシー学習に適したアーキテクチャを提案する。
関連論文リスト
- Action Flow Matching for Continual Robot Learning [57.698553219660376]
ロボット工学における継続的な学習は、変化する環境やタスクに常に適応できるシステムを求める。
本稿では,オンラインロボット力学モデルアライメントのためのフローマッチングを利用した生成フレームワークを提案する。
ロボットは,不整合モデルで探索するのではなく,行動自体を変換することで,より効率的に情報収集を行う。
論文 参考訳(メタデータ) (2025-04-25T16:26:15Z) - Rethinking Bimanual Robotic Manipulation: Learning with Decoupled Interaction Framework [28.193344739081798]
バイオマチックなロボット操作は、ロボティクスコミュニティにおいて、新しくて重要なトピックである。
本稿では,バイマニュアル操作における異なるタスクの特徴を考察した,疎結合なインタラクションフレームワークを提案する。
我々のフレームワークは,SOTA法よりも23.5%向上し,優れた性能を実現している。
論文 参考訳(メタデータ) (2025-03-12T09:28:41Z) - You Only Teach Once: Learn One-Shot Bimanual Robotic Manipulation from Video Demonstrations [38.835807227433335]
双方向ロボット操作は、インテリジェンスを具現化した長年にわたる課題である。
両眼でのみ観察できるヨト(YOTO)を提案する。
YOTOは5つの複雑なロングホライゾンのバイマニュアルタスクを模倣することで、素晴らしいパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-01-24T03:26:41Z) - DexHandDiff: Interaction-aware Diffusion Planning for Adaptive Dexterous Manipulation [78.60543357822957]
高度なロボティクスにとって、接触に富んだ相互作用による有害な操作が不可欠である。
DexHandDiffは,適応的デキスタラス操作のための対話型拡散計画フレームワークである。
当社のフレームワークは, 目標適応度の高いタスクにおいて, 平均70.7%の成功率を実現し, コンタクトリッチな操作における堅牢性と柔軟性を強調した。
論文 参考訳(メタデータ) (2024-11-27T18:03:26Z) - HYPERmotion: Learning Hybrid Behavior Planning for Autonomous Loco-manipulation [7.01404330241523]
HYPERmotionは、異なるシナリオのタスクに基づいて行動を学び、選択し、計画するフレームワークである。
強化学習と全身最適化を組み合わせることで,38関節の運動を生成する。
シミュレーションと実世界の実験では、学習した動きが新しいタスクに効率的に適応できることが示されている。
論文 参考訳(メタデータ) (2024-06-20T18:21:24Z) - Hierarchical Procedural Framework for Low-latency Robot-Assisted Hand-Object Interaction [45.256762954338704]
本稿では,ロボット支援ハンドオブジェクトインタラクションを実現するための階層型手続きフレームワークを提案する。
低レベルの調整階層は、継続的に更新された3Dハンドモデルを用いてロボットの動作を微調整する。
リングウェアリングタスクのケーススタディは、医療や製造業などの補助技術への本研究の適用の可能性を示している。
論文 参考訳(メタデータ) (2024-05-29T21:20:16Z) - BiRP: Learning Robot Generalized Bimanual Coordination using Relative
Parameterization Method on Human Demonstration [2.301921384458527]
本研究は,ヒトの日常活動における主業務をリーダ・フォロワーと相乗的コーディネーションの2つのタイプに分けた。
本研究では,人間の実演からこれらの調整を学習するための相対パラメータ化手法を提案する。
本手法は,ロボットによる大規模操作モデルトレーニングのためのデータプラグインとして活用できる可能性が示唆されている。
論文 参考訳(メタデータ) (2023-07-12T05:58:59Z) - "No, to the Right" -- Online Language Corrections for Robotic
Manipulation via Shared Autonomy [70.45420918526926]
LILACは、実行中に自然言語の修正をオンラインで実施し、適応するためのフレームワークである。
LILACは人間とロボットを個別にターンテイクする代わりに、人間とロボットの間にエージェンシーを分割する。
提案手法は,タスク完了率が高く,ユーザによって主観的に好まれることを示す。
論文 参考訳(メタデータ) (2023-01-06T15:03:27Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Leveraging Sequentiality in Reinforcement Learning from a Single
Demonstration [68.94506047556412]
本稿では,複雑なロボットタスクの制御ポリシーを1つの実演で学習するために,シーケンシャルなバイアスを活用することを提案する。
本研究は, ヒューマノイド移動やスタンドアップなど, 模擬課題のいくつかを, 前例のないサンプル効率で解くことができることを示す。
論文 参考訳(メタデータ) (2022-11-09T10:28:40Z) - Robot Cooking with Stir-fry: Bimanual Non-prehensile Manipulation of
Semi-fluid Objects [13.847796949856457]
本文では,中国料理の調理法をバイマニアルロボットシステムに応用するアプローチについて述べる。
そこで本研究では,人間の実演から変形可能な物体の操作を学習するための分離されたフレームワークを提案する。
視覚的なフィードバックを加えることで、我々のフレームワークは自動的に動きを調整し、所望のスパイクフライ効果を達成することができる。
論文 参考訳(メタデータ) (2022-05-12T08:58:30Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Learning Agile Robotic Locomotion Skills by Imitating Animals [72.36395376558984]
動物の多様でアジャイルな運動スキルを再現することは、ロボット工学における長年の課題である。
そこで本研究では,現実世界の動物を模倣することで,足のロボットがアジャイルな運動能力を学ぶことができる模倣学習システムを提案する。
論文 参考訳(メタデータ) (2020-04-02T02:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。