論文の概要: Robot peels banana with goal-conditioned dual-action deep imitation
learning
- arxiv url: http://arxiv.org/abs/2203.09749v1
- Date: Fri, 18 Mar 2022 05:17:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-21 15:25:56.260112
- Title: Robot peels banana with goal-conditioned dual-action deep imitation
learning
- Title(参考訳): 目標条件付きダブルアクション深層学習でバナナを皮むくロボット
- Authors: Heecheol Kim, Yoshiyuki Ohmura, Yasuo Kuniyoshi
- Abstract要約: バナナの皮剥きなどの変形可能な物体の長距離デキスタスロボット操作が問題となる。
本稿では,目標条件付きデュアルアクション深層模倣学習(DIL)を提案する。
提案手法は実ダブルアームロボットで試験し,バナナの皮剥き作業に成功した。
- 参考スコア(独自算出の注目度): 2.857551605623957
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A long-horizon dexterous robot manipulation task of deformable objects, such
as banana peeling, is problematic because of difficulties in object modeling
and a lack of knowledge about stable and dexterous manipulation skills. This
paper presents a goal-conditioned dual-action deep imitation learning (DIL)
which can learn dexterous manipulation skills using human demonstration data.
Previous DIL methods map the current sensory input and reactive action, which
easily fails because of compounding errors in imitation learning caused by
recurrent computation of actions. The proposed method predicts reactive action
when the precise manipulation of the target object is required (local action)
and generates the entire trajectory when the precise manipulation is not
required. This dual-action formulation effectively prevents compounding error
with the trajectory-based global action while respond to unexpected changes in
the target object with the reactive local action. Furthermore, in this
formulation, both global/local actions are conditioned by a goal state which is
defined as the last step of each subtask, for robust policy prediction. The
proposed method was tested in the real dual-arm robot and successfully
accomplished the banana peeling task.
- Abstract(参考訳): バナナの皮剥きなどの変形性のある物体の長距離デキスタラスロボット操作は,物体モデリングの難しさと,安定かつデキスタラスな操作スキルに関する知識の欠如により問題となる。
本稿では、人間の実演データを用いて、巧妙な操作スキルを学習できる目標条件付きデュアルアクション深層模倣学習(DIL)を提案する。
従来のDIL法では,動作の繰り返し計算による模倣学習における誤りの複合化により,現在の感覚入力と反応動作のマッピングが容易であった。
提案手法は,対象オブジェクトの精密操作が必要な場合(局所動作)にリアクティブ動作を予測し,正確な操作が不要な場合には軌道全体を生成する。
この二重作用の定式化は、ターゲットオブジェクトの予期せぬ変化と反応性局所作用に応答しながら、軌道ベースの大域的作用との複合誤差を効果的に防止する。
さらに、この定式化では、ロバストな政策予測のために、各サブタスクの最終ステップとして定義されるゴール状態によってグローバル/ローカル両方のアクションが条件付けられる。
提案手法は実ダブルアームロボットで試験し,バナナの皮剥き作業に成功した。
関連論文リスト
- Modular Neural Network Policies for Learning In-Flight Object Catching
with a Robot Hand-Arm System [55.94648383147838]
本稿では,ロボットハンドアームシステムによる飛行物体の捕獲方法の学習を可能にするモジュラーフレームワークを提案する。
本フレームワークは,物体の軌跡予測を学習するオブジェクト状態推定器,(ii)捕捉対象のポーズのスコアとランク付けを学ぶキャッチポーズ品質ネットワーク,(iii)ロボットハンドをキャッチ前ポーズに移動させるように訓練されたリーチ制御ポリシ,(iv)ソフトキャッチ動作を行うように訓練された把握制御ポリシの5つのコアモジュールから構成される。
各モジュールと統合システムのシミュレーションにおいて、我々のフレームワークを広範囲に評価し、飛行における高い成功率を示す。
論文 参考訳(メタデータ) (2023-12-21T16:20:12Z) - Learning Extrinsic Dexterity with Parameterized Manipulation Primitives [9.528351777701811]
我々は、オブジェクトのポーズを変えるために環境を利用する一連のアクションを学習する。
我々のアプローチは、オブジェクトとグリップと環境の間の相互作用を利用してオブジェクトの状態を制御することができる。
拘束されたテーブルトップワークスペースから様々な重量,形状,摩擦特性の箱状物体を選別する手法の評価を行った。
論文 参考訳(メタデータ) (2023-10-26T21:28:23Z) - Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration [8.343657309038285]
強化学習はそのようなロボットコントローラを開発するための強力なフレームワークである。
分類分布を用いたマルチモーダル探索手法を提案する。
学習したポリシは外部の障害や観測ノイズに対して堅牢であり、複数のプッシュ器でタスクにスケールできることが示される。
論文 参考訳(メタデータ) (2023-08-04T16:55:00Z) - H-SAUR: Hypothesize, Simulate, Act, Update, and Repeat for Understanding
Object Articulations from Interactions [62.510951695174604]
The Hypothesize, Simulate, Act, Update, and Repeat (H-SAUR) is a probabilistic generative framework that generated hypotheses about objects articulate given input observed。
提案手法は,現在最先端のオブジェクト操作フレームワークよりも優れていることを示す。
我々は、学習に基づく視覚モデルから学習前の学習を統合することにより、H-SAURのテスト時間効率をさらに向上する。
論文 参考訳(メタデータ) (2022-10-22T18:39:33Z) - Silver-Bullet-3D at ManiSkill 2021: Learning-from-Demonstrations and
Heuristic Rule-based Methods for Object Manipulation [118.27432851053335]
本稿では,SAPIEN ManiSkill Challenge 2021: No Interaction Trackにおいて,以下の2つのトラックを対象としたシステムの概要と比較分析を行った。
No Interactionは、事前に収集された実証軌道からの学習ポリシーのターゲットを追跡する。
このトラックでは,タスクを一連のサブタスクに分解することで,高品質なオブジェクト操作をトリガするHuristic Rule-based Method (HRM) を設計する。
各サブタスクに対して、ロボットアームに適用可能なアクションを予測するために、単純なルールベースの制御戦略が採用されている。
論文 参考訳(メタデータ) (2022-06-13T16:20:42Z) - Training and Evaluation of Deep Policies using Reinforcement Learning
and Generative Models [67.78935378952146]
GenRLはシーケンシャルな意思決定問題を解決するためのフレームワークである。
強化学習と潜在変数生成モデルの組み合わせを利用する。
最終方針訓練の性能に最も影響を与える生成モデルの特徴を実験的に決定する。
論文 参考訳(メタデータ) (2022-04-18T22:02:32Z) - Active Uncertainty Learning for Human-Robot Interaction: An Implicit
Dual Control Approach [5.05828899601167]
暗黙的な二重制御パラダイムに基づくループ内動作計画のための不確実性学習を実現するアルゴリズムを提案する。
提案手法は,動的プログラミングモデル予測制御問題のサンプリングに基づく近似に依拠する。
結果として得られたポリシーは、連続的およびカテゴリー的不確実性を持つ一般的な人間の予測モデルに対する二重制御効果を維持することが示されている。
論文 参考訳(メタデータ) (2022-02-15T20:40:06Z) - Coarse-to-Fine Imitation Learning: Robot Manipulation from a Single
Demonstration [8.57914821832517]
視覚的模倣学習のためのシンプルな新しい手法を導入し,新しいロボット操作タスクを1人の人間による実演から学習できるようにする。
提案手法は、状態推定問題として模倣学習をモデル化し、状態がエンドエフェクタのポーズとして定義される。
テスト時、エンドエフェクタは線形経路を通って推定状態に移動し、元のデモのエンドエフェクタ速度を単に再生する。
論文 参考訳(メタデータ) (2021-05-13T16:36:55Z) - Utilizing Skipped Frames in Action Repeats via Pseudo-Actions [13.985534521589253]
多くの深層強化学習では、エージェントがアクションを取ると、次のアクション決定点まで状態を観察しずに、事前定義された回数で同じアクションを繰り返します。
訓練データの量は、反復する行動の間隔に逆比例するので、トレーニングのサンプル効率に悪影響を及ぼす可能性がある。
疑似アクションの概念を導入してこの問題を緩和する,シンプルだが効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-07T02:43:44Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Learning Compliance Adaptation in Contact-Rich Manipulation [81.40695846555955]
本稿では,コンタクトリッチタスクに必要な力プロファイルの予測モデルを学習するための新しいアプローチを提案する。
このアプローチは、双方向Gated Recurrent Units (Bi-GRU) に基づく異常検出と適応力/インピーダンス制御を組み合わせたものである。
論文 参考訳(メタデータ) (2020-05-01T05:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。