論文の概要: Representation Matters: Improving Perception and Exploration for
Robotics
- arxiv url: http://arxiv.org/abs/2011.01758v2
- Date: Sun, 21 Mar 2021 18:31:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 03:41:02.966482
- Title: Representation Matters: Improving Perception and Exploration for
Robotics
- Title(参考訳): 表現問題:ロボットの認識と探索を改善する
- Authors: Markus Wulfmeier, Arunkumar Byravan, Tim Hertweck, Irina Higgins,
Ankush Gupta, Tejas Kulkarni, Malcolm Reynolds, Denis Teplyashin, Roland
Hafner, Thomas Lampe, Martin Riedmiller
- Abstract要約: 我々は,3つのロボットタスクの文脈において,多くの共通学習表現と手作業表現を体系的に評価した。
各表現の値は、次元性、可観測性、ゆがみの3つの性質によって評価される。
- 参考スコア(独自算出の注目度): 16.864646988990547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Projecting high-dimensional environment observations into lower-dimensional
structured representations can considerably improve data-efficiency for
reinforcement learning in domains with limited data such as robotics. Can a
single generally useful representation be found? In order to answer this
question, it is important to understand how the representation will be used by
the agent and what properties such a 'good' representation should have. In this
paper we systematically evaluate a number of common learnt and hand-engineered
representations in the context of three robotics tasks: lifting, stacking and
pushing of 3D blocks. The representations are evaluated in two use-cases: as
input to the agent, or as a source of auxiliary tasks. Furthermore, the value
of each representation is evaluated in terms of three properties:
dimensionality, observability and disentanglement. We can significantly improve
performance in both use-cases and demonstrate that some representations can
perform commensurate to simulator states as agent inputs. Finally, our results
challenge common intuitions by demonstrating that: 1) dimensionality strongly
matters for task generation, but is negligible for inputs, 2) observability of
task-relevant aspects mostly affects the input representation use-case, and 3)
disentanglement leads to better auxiliary tasks, but has only limited benefits
for input representations. This work serves as a step towards a more systematic
understanding of what makes a 'good' representation for control in robotics,
enabling practitioners to make more informed choices for developing new learned
or hand-engineered representations.
- Abstract(参考訳): 低次元構造表現に高次元環境観測を投影することで、ロボット工学のような限られたデータを持つ領域における強化学習におけるデータ効率を大幅に向上させることができる。
一般的に有用な1つの表現が見つかるか?
この質問に答えるためには、エージェントによってどのように表現が使われるか、そしてそのような'良い'表現が持つべき特性を理解することが重要である。
本稿では,3Dブロックの持ち上げ,積み上げ,押し上げという3つのロボット作業の文脈において,多くの共通学習表現と手作業表現を体系的に評価する。
表現はエージェントへの入力として、または補助的なタスクのソースとして、2つのユースケースで評価される。
さらに、各表現の値は次元性、可観測性、ゆがみの3つの性質で評価される。
両方のユースケースで性能を著しく向上させ、エージェント入力として状態のシミュレーションに相乗効果を発揮できることを示す。
最後に、この結果は共通の直観に挑戦します。
1) 次元性はタスク生成には重要であるが,入力には無視できる。
2)タスク関連面の可観測性は入力表現のユースケースに大きく影響し,
3) 絡み合いは補助作業の改善につながるが, 入力表現の利点は限られている。
この研究は、ロボット工学における制御の「良い」表現となるものをより体系的に理解するための一歩となり、実践者が新しい学習や手作業による表現を開発するためのよりインフォームドな選択を行うことを可能にする。
関連論文リスト
- Adaptive Language-Guided Abstraction from Contrastive Explanations [53.48583372522492]
報酬を計算するためにこれらの特徴をどのように使うべきかを決定する前に、環境のどの特徴が関係しているかを決定する必要がある。
連立特徴と報奨学習のためのエンドツーエンドの手法は、しばしば、刺激的な状態特徴に敏感な脆い報酬関数をもたらす。
本稿では,言語モデルを用いて人間に意味のある特徴を反復的に識別するALGAEという手法について述べる。
論文 参考訳(メタデータ) (2024-09-12T16:51:58Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - State Representations as Incentives for Reinforcement Learning Agents: A Sim2Real Analysis on Robotic Grasping [3.4777703321218225]
本研究は、特定のロボットタスクを解くためのエージェントのインセンティブ化における様々な表現の効果について検討する。
手作りの数値状態から符号化された画像ベース表現に至るまで、状態表現の連続体が定義される。
シミュレーションにおけるエージェントの課題解決能力に対する各表現の影響と実ロボットへの学習方針の伝達可能性について検討した。
論文 参考訳(メタデータ) (2023-09-21T11:41:22Z) - Learning in Factored Domains with Information-Constrained Visual
Representations [14.674830543204317]
本稿では、視覚学習タスクで使用される$beta$-Variational Auto-Encoderの変形形式に基づくヒューマンファクター表現学習のモデルを提案する。
その結果,学習速度と再現精度の関係から,モデル潜在次元空間の情報複雑性のトレードオフが示された。
論文 参考訳(メタデータ) (2023-03-30T16:22:10Z) - Visuomotor Control in Multi-Object Scenes Using Object-Aware
Representations [25.33452947179541]
ロボット作業におけるオブジェクト指向表現学習の有効性を示す。
本モデルは,サンプル効率のよい制御ポリシーを学習し,最先端のオブジェクト技術より優れている。
論文 参考訳(メタデータ) (2022-05-12T19:48:11Z) - Desiderata for Representation Learning: A Causal Perspective [104.3711759578494]
我々は表現学習の因果的視点を採り、非純粋性と効率性(教師なし表現学習)と非教師なし表現学習(教師なし表現学習)を定式化する。
これは、関心のデシダータを満たす程度を計算可能なメトリクスで評価し、単一の観測データセットから不純物や不整合表現を学習する。
論文 参考訳(メタデータ) (2021-09-08T17:33:54Z) - A Tutorial on Learning Disentangled Representations in the Imaging
Domain [13.320565017546985]
汎用表現学習のアプローチとして, 遠方表現学習が提案されている。
適切な汎用表現は、控えめな量のデータを使用して、新しいターゲットタスクに対して容易に微調整できる。
解離表現はモデル説明可能性を提供し、変動要因の根底にある因果関係を理解するのに役立つ。
論文 参考訳(メタデータ) (2021-08-26T21:44:10Z) - Laplacian Denoising Autoencoder [114.21219514831343]
本稿では,新しいタイプの自動符号化器を用いてデータ表現を学習することを提案する。
勾配領域における潜伏クリーンデータを破損させて雑音入力データを生成する。
いくつかのビジュアルベンチマークの実験では、提案されたアプローチでより良い表現が学べることが示されている。
論文 参考訳(メタデータ) (2020-03-30T16:52:39Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。