論文の概要: Graph Neural Networks for Relational Inductive Bias in Vision-based Deep
Reinforcement Learning of Robot Control
- arxiv url: http://arxiv.org/abs/2203.05985v1
- Date: Fri, 11 Mar 2022 15:11:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 13:17:51.297374
- Title: Graph Neural Networks for Relational Inductive Bias in Vision-based Deep
Reinforcement Learning of Robot Control
- Title(参考訳): 視覚に基づくロボット制御深部強化学習における関係誘導バイアスのためのグラフニューラルネットワーク
- Authors: Marco Oliva (1), Soubarna Banik (1), Josip Josifovski (1), Alois Knoll
(1) ((1) Technical University of Munich, Germany)
- Abstract要約: この研究は、リレーショナル帰納バイアスと視覚フィードバックを組み合わせたニューラルネットワークアーキテクチャを導入し、効率的な位置制御ポリシーを学習する。
我々は、画像符号化ネットワークによって生成された視覚シーンの低次元記述を用いて、ロボットの内部状態をモデル化するグラフ表現を導出する。
視覚的に現実的な3D環境下での6-DoFロボットアームのサンプル効率を向上させるためのモデルの有効性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art reinforcement learning algorithms predominantly learn a
policy from either a numerical state vector or images. Both approaches
generally do not take structural knowledge of the task into account, which is
especially prevalent in robotic applications and can benefit learning if
exploited. This work introduces a neural network architecture that combines
relational inductive bias and visual feedback to learn an efficient position
control policy for robotic manipulation. We derive a graph representation that
models the physical structure of the manipulator and combines the robot's
internal state with a low-dimensional description of the visual scene generated
by an image encoding network. On this basis, a graph neural network trained
with reinforcement learning predicts joint velocities to control the robot. We
further introduce an asymmetric approach of training the image encoder
separately from the policy using supervised learning. Experimental results
demonstrate that, for a 2-DoF planar robot in a geometrically simplistic 2D
environment, a learned representation of the visual scene can replace access to
the explicit coordinates of the reaching target without compromising on the
quality and sample efficiency of the policy. We further show the ability of the
model to improve sample efficiency for a 6-DoF robot arm in a visually
realistic 3D environment.
- Abstract(参考訳): 最先端の強化学習アルゴリズムは、主に数値状態ベクトルまたは画像からポリシーを学習する。
どちらのアプローチも一般にタスクの構造的な知識を考慮に入れておらず、特にロボットアプリケーションで広く使われている。
本研究は,ロボット操作のための効率的な位置制御ポリシを学ぶために,リレーショナルインダクティブバイアスと視覚フィードバックを組み合わせたニューラルネットワークアーキテクチャを提案する。
我々は,マニピュレータの物理的構造をモデル化し,ロボットの内部状態を画像符号化ネットワークによって生成された視覚シーンの低次元記述と組み合わせたグラフ表現を導出する。
これにより、強化学習で訓練されたグラフニューラルネットワークは、ロボットを制御するためのジョイント速度を予測する。
さらに,教師付き学習を用いて画像エンコーダをポリシーから分離してトレーニングする非対称的手法を提案する。
幾何学的に単純化された2次元環境において、2自由度平面ロボットの場合、視覚シーンの学習された表現は、ポリシーの品質やサンプル効率を損なうことなく、到達対象の明示的な座標へのアクセスを置き換えることができる。
さらに,実環境下での6自由度ロボットアームのサンプル効率を向上させるためのモデルの能力を示す。
関連論文リスト
- Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - Graphical Object-Centric Actor-Critic [55.2480439325792]
本稿では,アクター批判とモデルに基づくアプローチを組み合わせたオブジェクト中心強化学習アルゴリズムを提案する。
変換器エンコーダを用いてオブジェクト表現とグラフニューラルネットワークを抽出し、環境のダイナミクスを近似する。
本アルゴリズムは,現状のモデルフリーアクター批判アルゴリズムよりも複雑な3次元ロボット環境と構成構造をもつ2次元環境において,より優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-26T06:05:12Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Enhancing Robot Learning through Learned Human-Attention Feature Maps [6.724036710994883]
ロボット学習にフォーカスポイントに関する補助情報を埋め込むことで、学習プロセスの効率性と堅牢性が向上すると考えられる。
本稿では,人間の注意を近似予測モデルでモデル化し,エミュレートするための新しいアプローチを提案する。
我々は,物体検出と模倣学習という2つの学習課題にアプローチを試行する。
論文 参考訳(メタデータ) (2023-08-29T14:23:44Z) - RT-2: Vision-Language-Action Models Transfer Web Knowledge to Robotic
Control [140.48218261864153]
本研究では,インターネット規模のデータに基づいて学習した視覚言語モデルを,エンドツーエンドのロボット制御に直接組み込む方法について検討する。
提案手法は,インターネット規模のトレーニングから,RT-2による創発的能力の獲得を可能にした。
論文 参考訳(メタデータ) (2023-07-28T21:18:02Z) - Visual Reinforcement Learning with Self-Supervised 3D Representations [15.991546692872841]
運動制御のための3次元表現の自己教師型学習のための統一的な枠組みを提案する。
本手法は,2次元表現学習法と比較して,シミュレーション操作タスクにおけるサンプル効率の向上を享受する。
論文 参考訳(メタデータ) (2022-10-13T17:59:55Z) - Masked World Models for Visual Control [90.13638482124567]
視覚表現学習と動的学習を分離する視覚モデルに基づくRLフレームワークを提案する。
提案手法は,様々な視覚ロボット作業における最先端性能を実現する。
論文 参考訳(メタデータ) (2022-06-28T18:42:27Z) - 3D Neural Scene Representations for Visuomotor Control [78.79583457239836]
我々は2次元視覚観測から動的3次元シーンのモデルを純粋に学習する。
学習した表現空間上に構築された動的モデルにより,操作課題に対するビジュモータ制御が可能となる。
論文 参考訳(メタデータ) (2021-07-08T17:49:37Z) - KOVIS: Keypoint-based Visual Servoing with Zero-Shot Sim-to-Real
Transfer for Robotics Manipulation [8.81267687440119]
KOVISは、目視ステレオカメラシステムを用いたロボット操作作業のための、学習ベースで校正不要なビジュアルサーボ手法である。
シミュレーション環境でのみ、ディープニューラルネットワークをトレーニングします。
本研究では,ロボット操作タスクのシミュレーション環境と実環境実験の両方において,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-07-28T02:53:28Z) - Understanding Contexts Inside Robot and Human Manipulation Tasks through
a Vision-Language Model and Ontology System in a Video Stream [4.450615100675747]
本稿では,ロボットと人間の操作の双方に対して,厳密な制約付き知識領域の下で視覚データセットを提案する。
本稿では,視覚的注意とコモンセンス知識に満ちた知識グラフを組み合わせて生成する手法を提案する。
提案手法により,ロボットはリアルタイム映像を視聴することで,人間の意図的な動作を模倣することができる。
論文 参考訳(メタデータ) (2020-03-02T19:48:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。