論文の概要: Latent Representation Prediction Networks
- arxiv url: http://arxiv.org/abs/2009.09439v2
- Date: Wed, 17 Mar 2021 13:42:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 12:27:06.146209
- Title: Latent Representation Prediction Networks
- Title(参考訳): 潜在表現予測ネットワーク
- Authors: Hlynur Dav\'i{\dh} Hlynsson, Merlin Sch\"uler, Robin Schiewer, Tobias
Glasmachers, Laurenz Wiskott
- Abstract要約: 満足できない表現を学習するこの原則を見いだす。
本稿では,この表現を予測関数とともに学習する新しい方法を提案する。
提案手法は, 標準強化学習法よりもサンプリング効率がよいことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deeply-learned planning methods are often based on learning representations
that are optimized for unrelated tasks. For example, they might be trained on
reconstructing the environment. These representations are then combined with
predictor functions for simulating rollouts to navigate the environment. We
find this principle of learning representations unsatisfying and propose to
learn them such that they are directly optimized for the task at hand: to be
maximally predictable for the predictor function. This results in
representations that are by design optimal for the downstream task of planning,
where the learned predictor function is used as a forward model.
To this end, we propose a new way of jointly learning this representation
along with the prediction function, a system we dub Latent Representation
Prediction Network (LARP). The prediction function is used as a forward model
for search on a graph in a viewpoint-matching task and the representation
learned to maximize predictability is found to outperform a pre-trained
representation. Our approach is shown to be more sample-efficient than standard
reinforcement learning methods and our learned representation transfers
successfully to dissimilar objects.
- Abstract(参考訳): 深く学習した計画手法は、しばしば無関係なタスクに最適化された学習表現に基づいている。
例えば、彼らは環境の再構築を訓練されるかもしれません。
これらの表現は、環境をナビゲートするロールアウトをシミュレートする予測関数と結合される。
我々は,この学習表現の原則が満足できないことを発見し,そのタスクに対して直接的に最適化されるように学習することを提案する。
これにより、学習した予測関数をフォワードモデルとして使用する、計画の下流タスクに最適な設計による表現が得られる。
そこで本研究では,この表現を予測関数とともに学習する新しい手法を提案する。
予測関数は、視点マッチングタスクにおけるグラフ検索のフォワードモデルとして用いられ、予測可能性を最大化するために学習された表現は、事前学習された表現よりも優れる。
提案手法は,従来の強化学習法よりもサンプル効率が高く,異種物体への表現伝達に成功している。
関連論文リスト
- Semformer: Transformer Language Models with Semantic Planning [18.750863564495006]
次世代の予測は、現在のニューラルネットワークモデルの主要なコンポーネントである。
本稿では,応答のセマンティックプランニングを明示的にモデル化したトランスフォーマー言語モデルのトレーニング手法であるSemformerを紹介する。
論文 参考訳(メタデータ) (2024-09-17T12:54:34Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Contrastive Difference Predictive Coding [79.74052624853303]
本研究では、時系列データの断片を縫合して、将来の事象の予測を学習するために必要なデータの量を減少させるコントラッシブ予測符号化の時間差版を導入する。
目的条件付きRLの非政治アルゴリズムを導出するために,この表現学習手法を適用した。
論文 参考訳(メタデータ) (2023-10-31T03:16:32Z) - The Trade-off between Universality and Label Efficiency of
Representations from Contrastive Learning [32.15608637930748]
2つのデシダラタの間にはトレードオフがあることを示し、同時に両方を達成できない可能性があることを示す。
我々は、理論データモデルを用いて分析を行い、より多様な事前学習データにより、異なるタスクに対してより多様な機能が得られる一方で、タスク固有の機能に重点を置いていないことを示す。
論文 参考訳(メタデータ) (2023-02-28T22:14:33Z) - Understanding Self-Predictive Learning for Reinforcement Learning [61.62067048348786]
強化学習のための自己予測学習の学習ダイナミクスについて検討する。
本稿では,2つの表現を同時に学習する新しい自己予測アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-06T20:43:37Z) - Sample Efficient Subspace-based Representations for Nonlinear
Meta-Learning [28.2312127482203]
この研究は、バイナリ分類からニューラルネットワークまで、より一般的な非線形タスクのクラスを探求する。
サブスペースに基づく表現をサンプル効率のよい方法で学習できることを証明し、サンプル複雑性の観点から将来のタスクに有益であることを証明する。
論文 参考訳(メタデータ) (2021-02-14T17:40:04Z) - Explain and Predict, and then Predict Again [6.865156063241553]
説明生成フェーズにおけるマルチタスク学習を用いたExPredを、効果的なトレードオフ説明と予測損失として提案します。
3つの多様な言語データセットに対するアプローチを幅広く評価しています。
論文 参考訳(メタデータ) (2021-01-11T19:36:52Z) - Function Contrastive Learning of Transferable Meta-Representations [38.31692245188669]
共同訓練がメタ表現の伝達性に及ぼす影響について検討した。
教師付きメタ学習のためのデカップリングエンコーダデコーダアプローチを提案する。
論文 参考訳(メタデータ) (2020-10-14T13:50:22Z) - Predicting What You Already Know Helps: Provable Self-Supervised
Learning [60.27658820909876]
自己教師付き表現学習は、ラベル付きデータを必要としない補助的な予測タスク(プリテキストタスクと呼ばれる)を解決する。
本研究では,特定のエミュレーションに基づくプレテキストタスク間の統計的関係を利用して,優れた表現を学習することを保証する機構を示す。
複素基底真理関数クラスにおいても線形層は近似誤差が小さいことを証明した。
論文 参考訳(メタデータ) (2020-08-03T17:56:13Z) - Video Prediction via Example Guidance [156.08546987158616]
ビデオ予測タスクでは、将来のコンテンツとダイナミクスのマルチモーダルな性質を捉えることが大きな課題である。
本研究では,有効な将来状態の予測を効果的に行うための,シンプルで効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-03T14:57:24Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。