論文の概要: CURL: Contrastive Unsupervised Representations for Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2004.04136v4
- Date: Mon, 21 Sep 2020 15:34:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 08:01:05.719566
- Title: CURL: Contrastive Unsupervised Representations for Reinforcement
Learning
- Title(参考訳): CURL:強化学習のための対照的な教師なし表現
- Authors: Aravind Srinivas, Michael Laskin, Pieter Abbeel
- Abstract要約: CURLは、コントラスト学習を用いて、生の画素から高レベルの特徴を抽出する。
DeepMind Control Suiteでは、CURLが、状態ベースの機能を使用するメソッドのサンプル効率とほぼ一致した、最初のイメージベースのアルゴリズムである。
- 参考スコア(独自算出の注目度): 93.57637441080603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present CURL: Contrastive Unsupervised Representations for Reinforcement
Learning. CURL extracts high-level features from raw pixels using contrastive
learning and performs off-policy control on top of the extracted features. CURL
outperforms prior pixel-based methods, both model-based and model-free, on
complex tasks in the DeepMind Control Suite and Atari Games showing 1.9x and
1.2x performance gains at the 100K environment and interaction steps benchmarks
respectively. On the DeepMind Control Suite, CURL is the first image-based
algorithm to nearly match the sample-efficiency of methods that use state-based
features. Our code is open-sourced and available at
https://github.com/MishaLaskin/curl.
- Abstract(参考訳): 強化学習のための対照的教師なし表現であるcurlを提案する。
CURLは、コントラスト学習を用いて、原画素から高レベル特徴を抽出し、抽出した特徴の上に、外部制御を行う。
CURLは、DeepMind Control SuiteとAtari Gamesの複雑なタスクにおいて、それぞれ100K環境で1.9倍、1.2倍のパフォーマンス向上を示すモデルベースとモデルフリーの両方で、以前のピクセルベースの手法より優れている。
DeepMind Control Suiteでは、CURLが、状態ベースの機能を使用するメソッドのサンプル効率とほぼ一致した、最初のイメージベースのアルゴリズムである。
私たちのコードはオープンソースで、https://github.com/mishalaskin/curlで利用可能です。
関連論文リスト
- Towards Fusing Point Cloud and Visual Representations for Imitation Learning [57.886331184389604]
本稿では,ポイントクラウドとRGBの両特性を効果的に組み合わせた新しい模倣学習手法であるFPV-Netを提案する。
適応層ノルム条件付けを用いて,グローバルおよびローカル画像トークン上のポイントクラウドエンコーダを条件付けする。
論文 参考訳(メタデータ) (2025-02-17T20:46:54Z) - CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Efficient Model-Based Concave Utility Reinforcement Learning through
Greedy Mirror Descent [0.0]
Concave Utility Reinforcement Learning problem(英語版)は古典的なベルマン方程式を無効化する。
有限地平面マルコフ決定過程におけるCURLの新しいアルゴリズムであるMD-CURLを紹介する。
本稿では,MD-CURLをオンライン・エピソードベース・セッティングに適応させる新しい手法であるGreedy MD-CURLを提案する。
論文 参考訳(メタデータ) (2023-11-30T08:32:50Z) - Propagate Yourself: Exploring Pixel-Level Consistency for Unsupervised
Visual Representation Learning [60.75687261314962]
我々は,高密度な特徴表現を学習するための画素レベルのプレテキストタスクを導入する。
ピクセル・ツー・プロパゲーション整合性タスクは、最先端のアプローチよりも優れた結果をもたらす。
結果は、ピクセルレベルでプリテキストタスクを定義する強力な可能性を示している。
論文 参考訳(メタデータ) (2020-11-19T18:59:45Z) - Dense Contrastive Learning for Self-Supervised Visual Pre-Training [102.15325936477362]
入力画像の2つのビュー間の画素レベルでの差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分)を最適化することにより自己教師学習を実現する。
ベースライン法であるMoCo-v2と比較すると,計算オーバーヘッドは1%遅かった。
論文 参考訳(メタデータ) (2020-11-18T08:42:32Z) - Masked Contrastive Representation Learning for Reinforcement Learning [202.8261654227565]
コントラスト学習を用いて個々のビデオフレームの原画素から高次特徴を抽出するCURLは,効率的なアルゴリズムである。
本稿では,連続した入力間の相関を考慮に入れたRLのための新しいアルゴリズム,マスク付きコントラスト表現学習を提案する。
DMControlスイートの16ドル環境中14ドル,Atari 2600 Gamesの26ドル環境中21ドル環境中26ドル環境中24ドルで,CURLに対する一貫した改善を実現している。
論文 参考訳(メタデータ) (2020-10-15T02:00:10Z) - Image Augmentation Is All You Need: Regularizing Deep Reinforcement
Learning from Pixels [37.726433732939114]
本稿では,標準モデルフリー強化学習アルゴリズムに適用可能な,シンプルなデータ拡張手法を提案する。
コンピュータビジョンタスクでよく使われる入力摂動を利用して値関数を正規化する。
我々の手法はモデルなし強化学習アルゴリズムと組み合わせることができる。
論文 参考訳(メタデータ) (2020-04-28T16:48:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。