論文の概要: Representation Learning for Out-Of-Distribution Generalization in
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2107.05686v1
- Date: Mon, 12 Jul 2021 18:49:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 14:54:21.361954
- Title: Representation Learning for Out-Of-Distribution Generalization in
Reinforcement Learning
- Title(参考訳): 強化学習における分散一般化のための表現学習
- Authors: Andrea Dittadi, Frederik Tr\"auble, Manuel W\"uthrich, Felix Widmaier,
Peter Gehler, Ole Winther, Francesco Locatello, Olivier Bachem, Bernhard
Sch\"olkopf, Stefan Bauer
- Abstract要約: 本稿では,実世界の下流作業における学習表現の有用性を,初めて体系的に評価することを目的とする。
1万以上の強化学習政策を訓練することにより、異なる表現特性がアウト・オブ・ディストリビューションの一般化にどの程度影響するかを広範囲に評価する。
ドメインのランダム化や微調整なしにシミュレーションから実世界へのポリシーのゼロショット転送を実証する。
- 参考スコア(独自算出の注目度): 39.21650402977466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning data representations that are useful for various downstream tasks is
a cornerstone of artificial intelligence. While existing methods are typically
evaluated on downstream tasks such as classification or generative image
quality, we propose to assess representations through their usefulness in
downstream control tasks, such as reaching or pushing objects. By training over
10,000 reinforcement learning policies, we extensively evaluate to what extent
different representation properties affect out-of-distribution (OOD)
generalization. Finally, we demonstrate zero-shot transfer of these policies
from simulation to the real world, without any domain randomization or
fine-tuning. This paper aims to establish the first systematic characterization
of the usefulness of learned representations for real-world OOD downstream
tasks.
- Abstract(参考訳): さまざまな下流タスクに有用なデータ表現を学ぶことは、人工知能の基盤である。
既存の手法は分類や生成画像品質などの下流タスクで一般的に評価されるが,オブジェクトの到達や押下といった下流制御タスクにおける表現の有用性を評価する。
1万以上の強化学習政策を訓練することにより,表現特性の違いがアウト・オブ・ディストリビューション(OOD)の一般化に与える影響を広く評価する。
最後に、ドメインのランダム化や微調整なしに、シミュレーションから実世界へのポリシーのゼロショット転送を実証する。
本稿では,実世界のOODダウンストリームタスクにおける学習表現の有用性を初めて体系的に評価することを目的とする。
関連論文リスト
- Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Generalizable Imitation Learning Through Pre-Trained Representations [19.98418419179064]
我々は、リッチなDINO事前学習型Visual Transformer (ViT) パッチレベルの埋め込みを活用して、実演を通して学習する際の一般化を向上する模倣学習アルゴリズムであるBC-ViTを紹介する。
我々の学習者は、外見の特徴をセマンティックな概念にまとめ、幅広い外見のバリエーションやオブジェクトタイプにまたがる安定なキーポイントを形成することで世界を見る。
論文 参考訳(メタデータ) (2023-11-15T20:15:51Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Invariance is Key to Generalization: Examining the Role of
Representation in Sim-to-Real Transfer for Visual Navigation [35.01394611106655]
一般化の鍵は、すべてのタスク関連情報をキャプチャするのに十分なリッチな表現である。
このような視覚ナビゲーションの表現を実験的に研究する。
我々の表現は、トレーニングドメインとテストドメイン間のA距離を減少させる。
論文 参考訳(メタデータ) (2023-10-23T15:15:19Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Reinforcement Learning with Prototypical Representations [114.35801511501639]
Proto-RLは、プロトタイプ表現を通じて表現学習と探索を結び付ける自己監督型フレームワークである。
これらのプロトタイプは、エージェントの探索経験の要約と同時に、観察を表す基盤としても機能する。
これにより、困難な連続制御タスクのセットで最新の下流ポリシー学習が可能になります。
論文 参考訳(メタデータ) (2021-02-22T18:56:34Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。