論文の概要: Learning Bimanual Manipulation via Action Chunking and Inter-Arm Coordination with Transformers
- arxiv url: http://arxiv.org/abs/2503.13916v1
- Date: Tue, 18 Mar 2025 05:20:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:14:58.657672
- Title: Learning Bimanual Manipulation via Action Chunking and Inter-Arm Coordination with Transformers
- Title(参考訳): 動作チャンキングと変換器との相互協調によるバイマニピュレーションの学習
- Authors: Tomohiro Motoda, Ryo Hanai, Ryoichi Nakajo, Masaki Murooka, Floris Erich, Yukiyasu Domae,
- Abstract要約: 両腕の調整と効率性、特に同期行動に重点を置いています。
協調行動を予測する新しい模倣学習アーキテクチャを提案する。
本モデルでは,比較において高い成功率を示し,両手操作のポリシー学習に適したアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 4.119006369973485
- License:
- Abstract: Robots that can operate autonomously in a human living environment are necessary to have the ability to handle various tasks flexibly. One crucial element is coordinated bimanual movements that enable functions that are difficult to perform with one hand alone. In recent years, learning-based models that focus on the possibilities of bimanual movements have been proposed. However, the high degree of freedom of the robot makes it challenging to reason about control, and the left and right robot arms need to adjust their actions depending on the situation, making it difficult to realize more dexterous tasks. To address the issue, we focus on coordination and efficiency between both arms, particularly for synchronized actions. Therefore, we propose a novel imitation learning architecture that predicts cooperative actions. We differentiate the architecture for both arms and add an intermediate encoder layer, Inter-Arm Coordinated transformer Encoder (IACE), that facilitates synchronization and temporal alignment to ensure smooth and coordinated actions. To verify the effectiveness of our architectures, we perform distinctive bimanual tasks. The experimental results showed that our model demonstrated a high success rate for comparison and suggested a suitable architecture for the policy learning of bimanual manipulation.
- Abstract(参考訳): 人間の生活環境で自律的に動作できるロボットは、様々なタスクを柔軟に処理する能力を持つ必要がある。
1つの重要な要素は、片手では実行が困難である機能を可能にする、協調したバイマニュアル運動である。
近年,双方向運動の可能性に着目した学習モデルが提案されている。
しかし、ロボットの高度な自由度は、制御の推論を困難にしており、左右のロボットアームは状況に応じて動作を調整する必要があるため、より厳密なタスクを実現することは困難である。
この問題に対処するため、両腕間の調整と効率性、特に同期行動に焦点をあてる。
そこで本研究では,協調行動を予測する新しい模倣学習アーキテクチャを提案する。
我々は両腕のアーキテクチャを区別し、スムーズかつ協調的な動作を保証するために同期と時間的アライメントを容易にする中間エンコーダ層であるInter-Arm Coordinated Transformer Encoder (IACE) を付加する。
アーキテクチャの有効性を検証するために,両面的な作業を行う。
実験結果から,本モデルは比較において高い成功率を示し,両面操作のポリシー学習に適したアーキテクチャを提案する。
関連論文リスト
- You Only Teach Once: Learn One-Shot Bimanual Robotic Manipulation from Video Demonstrations [38.835807227433335]
双方向ロボット操作は、インテリジェンスを具現化した長年にわたる課題である。
両眼でのみ観察できるヨト(YOTO)を提案する。
YOTOは5つの複雑なロングホライゾンのバイマニュアルタスクを模倣することで、素晴らしいパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-01-24T03:26:41Z) - HYPERmotion: Learning Hybrid Behavior Planning for Autonomous Loco-manipulation [7.01404330241523]
HYPERmotionは、異なるシナリオのタスクに基づいて行動を学び、選択し、計画するフレームワークである。
強化学習と全身最適化を組み合わせることで,38関節の運動を生成する。
シミュレーションと実世界の実験では、学習した動きが新しいタスクに効率的に適応できることが示されている。
論文 参考訳(メタデータ) (2024-06-20T18:21:24Z) - BiRP: Learning Robot Generalized Bimanual Coordination using Relative
Parameterization Method on Human Demonstration [2.301921384458527]
本研究は,ヒトの日常活動における主業務をリーダ・フォロワーと相乗的コーディネーションの2つのタイプに分けた。
本研究では,人間の実演からこれらの調整を学習するための相対パラメータ化手法を提案する。
本手法は,ロボットによる大規模操作モデルトレーニングのためのデータプラグインとして活用できる可能性が示唆されている。
論文 参考訳(メタデータ) (2023-07-12T05:58:59Z) - "No, to the Right" -- Online Language Corrections for Robotic
Manipulation via Shared Autonomy [70.45420918526926]
LILACは、実行中に自然言語の修正をオンラインで実施し、適応するためのフレームワークである。
LILACは人間とロボットを個別にターンテイクする代わりに、人間とロボットの間にエージェンシーを分割する。
提案手法は,タスク完了率が高く,ユーザによって主観的に好まれることを示す。
論文 参考訳(メタデータ) (2023-01-06T15:03:27Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Leveraging Sequentiality in Reinforcement Learning from a Single
Demonstration [68.94506047556412]
本稿では,複雑なロボットタスクの制御ポリシーを1つの実演で学習するために,シーケンシャルなバイアスを活用することを提案する。
本研究は, ヒューマノイド移動やスタンドアップなど, 模擬課題のいくつかを, 前例のないサンプル効率で解くことができることを示す。
論文 参考訳(メタデータ) (2022-11-09T10:28:40Z) - Robot Cooking with Stir-fry: Bimanual Non-prehensile Manipulation of
Semi-fluid Objects [13.847796949856457]
本文では,中国料理の調理法をバイマニアルロボットシステムに応用するアプローチについて述べる。
そこで本研究では,人間の実演から変形可能な物体の操作を学習するための分離されたフレームワークを提案する。
視覚的なフィードバックを加えることで、我々のフレームワークは自動的に動きを調整し、所望のスパイクフライ効果を達成することができる。
論文 参考訳(メタデータ) (2022-05-12T08:58:30Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Bi-Manual Manipulation and Attachment via Sim-to-Real Reinforcement
Learning [23.164743388342803]
シミュレーションで訓練された強化学習を用いて,両手作業の解法について検討する。
また、RLポリシーの効果的なトレーニングにつながるシミュレーション環境の変更についても検討する。
本研究では,2つのロボットアームが磁気的接続点を持つ2つのブロックを拾い上げるための接続タスクを設計する。
論文 参考訳(メタデータ) (2022-03-15T21:49:20Z) - Learning Multi-Arm Manipulation Through Collaborative Teleoperation [63.35924708783826]
模倣学習(il)はロボットに操作タスクを実行するための強力なパラダイムである。
多くの現実世界のタスクは、重い物体を持ち上げる、デスクを組み立てるなど、複数のアームを必要とする。
複数のリモートユーザが同時にロボットアームを遠隔操作できるマルチユーザデータ収集プラットフォームであるMulti-Arm RoboTurk(MART)を紹介した。
論文 参考訳(メタデータ) (2020-12-12T05:43:43Z) - Learning Agile Robotic Locomotion Skills by Imitating Animals [72.36395376558984]
動物の多様でアジャイルな運動スキルを再現することは、ロボット工学における長年の課題である。
そこで本研究では,現実世界の動物を模倣することで,足のロボットがアジャイルな運動能力を学ぶことができる模倣学習システムを提案する。
論文 参考訳(メタデータ) (2020-04-02T02:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。