論文の概要: End-to-End Affordance Learning for Robotic Manipulation
- arxiv url: http://arxiv.org/abs/2209.12941v1
- Date: Mon, 26 Sep 2022 18:24:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 16:10:12.501331
- Title: End-to-End Affordance Learning for Robotic Manipulation
- Title(参考訳): ロボットマニピュレーションのためのエンドツーエンド学習
- Authors: Yiran Geng, Boshi An, Haoran Geng, Yuanpei Chen, Yaodong Yang, Hao
Dong
- Abstract要約: インタラクティブな環境で3Dオブジェクトを操作することの学習は、強化学習において難しい問題であった。
視覚的余裕は、効果的に実行可能なセマンティクスを備えたオブジェクト中心の情報提供において、大きな見通しを示してきた。
本研究では,RL学習過程において生成した接触情報を用いて視覚的余裕を生かし,興味のある接触マップを予測する。
- 参考スコア(独自算出の注目度): 4.405918052597016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning to manipulate 3D objects in an interactive environment has been a
challenging problem in Reinforcement Learning (RL). In particular, it is hard
to train a policy that can generalize over objects with different semantic
categories, diverse shape geometry and versatile functionality. Recently, the
technique of visual affordance has shown great prospects in providing
object-centric information priors with effective actionable semantics. As such,
an effective policy can be trained to open a door by knowing how to exert force
on the handle. However, to learn the affordance, it often requires
human-defined action primitives, which limits the range of applicable tasks. In
this study, we take advantage of visual affordance by using the contact
information generated during the RL training process to predict contact maps of
interest. Such contact prediction process then leads to an end-to-end
affordance learning framework that can generalize over different types of
manipulation tasks. Surprisingly, the effectiveness of such framework holds
even under the multi-stage and the multi-agent scenarios. We tested our method
on eight types of manipulation tasks. Results showed that our methods
outperform baseline algorithms, including visual-based affordance methods and
RL methods, by a large margin on the success rate. The demonstration can be
found at https://sites.google.com/view/rlafford/.
- Abstract(参考訳): インタラクティブ環境における3dオブジェクト操作の学習は,強化学習(rl)において難しい課題となっている。
特に、異なる意味圏、多様な形状幾何学、多用途機能を持つオブジェクトを一般化できるポリシーを訓練することは困難である。
近年,視覚支援技術は,オブジェクト中心の情報優先と効果的な動作可能なセマンティクスの提供に大きな期待を寄せている。
そのため、ハンドルに力をかける方法を知ることで、ドアを開くための効果的な政策を訓練することができる。
しかし、手頃な価格を知るためには、しばしば人間定義のアクションプリミティブを必要とし、適用可能なタスクの範囲を制限する。
本研究では,RL学習過程において生成した接触情報を用いて視覚的余裕を生かし,興味のある接触マップを予測する。
このような接触予測プロセスは、様々な種類の操作タスクを一般化できるエンドツーエンドのアプライアンス学習フレームワークへとつながる。
驚くべきことに、このようなフレームワークの有効性は、マルチステージシナリオやマルチエージェントシナリオでも維持される。
8種類の操作タスクで本手法を検証した。
その結果,提案手法は,視覚ベースアフォーアンス法やrl法などベースラインアルゴリズムを上回っており,成功率に大きな差が見られた。
デモはhttps://sites.google.com/view/rlafford/で見ることができる。
関連論文リスト
- Reinforcement Learning with Action Sequence for Data-Efficient Robot Learning [62.3886343725955]
本稿では,行動列上のQ値を出力する批判ネットワークを学習する新しいRLアルゴリズムを提案する。
提案アルゴリズムは,現在および将来の一連の行動の実行結果を学習するために値関数を明示的に訓練することにより,ノイズのある軌道から有用な値関数を学習することができる。
論文 参考訳(メタデータ) (2024-11-19T01:23:52Z) - Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Decoupling Skill Learning from Robotic Control for Generalizable Object
Manipulation [35.34044822433743]
ロボット操作の最近の研究は、様々なタスクに取り組む可能性を示している。
これは関節制御のための高次元の作用空間によるものであると推測する。
本稿では,「何をすべきか」を「どうやるか」から「どうやるか」を学習するタスクを,別のアプローチで分離する。
ロボットキネマティック・コントロールは、作業空間のゴールに到達するために高次元の関節運動を実行するように最適化されている。
論文 参考訳(メタデータ) (2023-03-07T16:31:13Z) - Self-Supervised Learning of Multi-Object Keypoints for Robotic
Manipulation [8.939008609565368]
本稿では,下流政策学習におけるDense Cor correspondence pretext Taskによる画像キーポイントの学習の有効性を示す。
我々は,多様なロボット操作タスクに対するアプローチを評価し,他の視覚表現学習手法と比較し,その柔軟性と有効性を示した。
論文 参考訳(メタデータ) (2022-05-17T13:15:07Z) - Visuomotor Control in Multi-Object Scenes Using Object-Aware
Representations [25.33452947179541]
ロボット作業におけるオブジェクト指向表現学習の有効性を示す。
本モデルは,サンプル効率のよい制御ポリシーを学習し,最先端のオブジェクト技術より優れている。
論文 参考訳(メタデータ) (2022-05-12T19:48:11Z) - Learning Generalizable Dexterous Manipulation from Human Grasp
Affordance [11.060931225148936]
マルチフィンガーハンドによる有害な操作は、ロボット工学における最も難しい問題の1つだ。
模倣学習の最近の進歩は、強化学習と比較してサンプル効率を大幅に改善した。
本稿では,様々な3Dオブジェクトをカテゴリ内に配置した大規模実演を用いて,デクスタラスな操作を学習することを提案する。
論文 参考訳(メタデータ) (2022-04-05T16:26:22Z) - A Framework for Efficient Robotic Manipulation [79.10407063260473]
単一のロボットアームがピクセルからスパースリワード操作ポリシーを学習できることを示します。
デモは10回しかなく、単一のロボットアームがピクセルからスパースリワード操作のポリシーを学習できることを示しています。
論文 参考訳(メタデータ) (2020-12-14T22:18:39Z) - Learning Object Manipulation Skills via Approximate State Estimation
from Real Videos [47.958512470724926]
人間は、いくつかの指導ビデオを見て、新しいタスクを学ぶことに精通しています。
一方、新しいアクションを学習するロボットは、試行錯誤によって多くの労力を必要とするか、あるいは入手が困難な専門家によるデモを使う必要がある。
本稿では,ビデオから直接オブジェクト操作スキルを学習する手法について検討する。
論文 参考訳(メタデータ) (2020-11-13T08:53:47Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。