論文の概要: ROLL: Visual Self-Supervised Reinforcement Learning with Object
Reasoning
- arxiv url: http://arxiv.org/abs/2011.06777v1
- Date: Fri, 13 Nov 2020 06:21:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:47:59.916512
- Title: ROLL: Visual Self-Supervised Reinforcement Learning with Object
Reasoning
- Title(参考訳): ROLL:オブジェクト推論による視覚的自己監督強化学習
- Authors: Yufei Wang, Gautham Narayan Narasimhan, Xingyu Lin, Brian Okorn, David
Held
- Abstract要約: 現在の強化学習アルゴリズムは、オブジェクトレベルの推論を行うことなく、画像全体で動作する。
本稿では,オブジェクトレベルの推論とオクルージョン推論を取り入れた従来の視覚自己監督型RLを改善する。
提案アルゴリズムであるROLLは,シミュレーションされた視覚制御タスクにおいて,従来の手法と比較して劇的に高速かつ優れた最終性能を学習する。
- 参考スコア(独自算出の注目度): 16.18256739680704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current image-based reinforcement learning (RL) algorithms typically operate
on the whole image without performing object-level reasoning. This leads to
inefficient goal sampling and ineffective reward functions. In this paper, we
improve upon previous visual self-supervised RL by incorporating object-level
reasoning and occlusion reasoning. Specifically, we use unknown object
segmentation to ignore distractors in the scene for better reward computation
and goal generation; we further enable occlusion reasoning by employing a novel
auxiliary loss and training scheme. We demonstrate that our proposed algorithm,
ROLL (Reinforcement learning with Object Level Learning), learns dramatically
faster and achieves better final performance compared with previous methods in
several simulated visual control tasks. Project video and code are available at
https://sites.google.com/andrew.cmu.edu/roll.
- Abstract(参考訳): 現在の画像ベース強化学習(RL)アルゴリズムは、通常、オブジェクトレベルの推論を行うことなく、画像全体で動作する。
これは非効率なゴールサンプリングと非効率な報酬関数をもたらす。
本稿では,オブジェクトレベルの推論とオクルージョン推論を取り入れた従来の視覚自己監督型RLを改善する。
具体的には, 未知のオブジェクトセグメンテーションを用いて, シーン内の注意注意を無視し, 報酬計算とゴール生成を改善するとともに, 新たな補助損失訓練方式を用いることにより, 咬合推論を可能にする。
提案するアルゴリズムであるROLL(Reinforcement Learning with Object Level Learning)は,複数の視覚的制御タスクにおける従来の手法と比較して,劇的に高速に学習し,最終的な性能が向上することを示す。
プロジェクトビデオとコードはhttps://sites.google.com/andrew.cmu.edu/roll.comで入手できる。
関連論文リスト
- RL-VLM-F: Reinforcement Learning from Vision Language Foundation Model Feedback [24.759613248409167]
リワードエンジニアリングは、強化学習研究における長年の課題である。
エージェントが新しいタスクを学習するための報酬関数を自動生成するRL-VLM-Fを提案する。
我々は、RL-VLM-Fが、様々な領域にまたがる効果的な報酬とポリシーを効果的に生成できることを実証した。
論文 参考訳(メタデータ) (2024-02-06T04:06:06Z) - An Invitation to Deep Reinforcement Learning [24.807012576054504]
ターゲット目標を最大化するためにディープニューラルネットワークをトレーニングすることが、マシンラーニングの成功の標準的なレシピになっています。
共通目的として、連合(IoU)、二言語評価(BLEU)スコア、報酬は教師付き学習では最適化できない。
強化学習(Reinforcement Learning, RL)は、未分化の目的を最大化するために、ディープニューラルネットワークを最適化するための有望な代替手段として登場した。
論文 参考訳(メタデータ) (2023-12-13T18:57:23Z) - Reward Finetuning for Faster and More Accurate Unsupervised Object
Discovery [64.41455104593304]
Reinforcement Learning from Human Feedback (RLHF)は、機械学習モデルを改善し、それを人間の好みに合わせる。
本稿では,RL法と類似した手法を非教師対象発見に適用することを提案する。
私たちは、我々のアプローチがより正確であるだけでなく、訓練よりも桁違いに高速であることを示した。
論文 参考訳(メタデータ) (2023-10-29T17:03:12Z) - Basis for Intentions: Efficient Inverse Reinforcement Learning using
Past Experience [89.30876995059168]
逆強化学習(IRL) - エージェントの報酬関数をその振る舞いを観察することから推測する。
本稿では、エージェントの報酬関数を観察することのできないIRLの問題に対処する。
論文 参考訳(メタデータ) (2022-08-09T17:29:49Z) - Depth-CUPRL: Depth-Imaged Contrastive Unsupervised Prioritized
Representations in Reinforcement Learning for Mapless Navigation of Unmanned
Aerial Vehicles [1.2468700211588883]
Reinforcement Learning (RL)は、生のピクセルイメージングと連続的な制御タスクを通じて、ビデオゲームにおいて印象的なパフォーマンスを示した。
レーザーセンサ測定などの物理状態に基づくRLポリシは、ピクセルによる学習よりもサンプリング効率が高いことが一般に受け入れられている。
本研究では,無人航空機(UAV)の無人航法を行うために,深度マップ推定から情報を抽出してRLエージェントに教える手法を提案する。
論文 参考訳(メタデータ) (2022-06-30T11:54:01Z) - Contrastive Learning as Goal-Conditioned Reinforcement Learning [147.28638631734486]
強化学習(RL)では,優れた表現が与えられると,課題の解決が容易になる。
ディープRLはこのような優れた表現を自動的に取得する必要があるが、事前の作業では、エンドツーエンドの方法での学習表現が不安定であることが多い。
比較的)表現学習法は,RLアルゴリズムとして自己にキャスト可能であることを示す。
論文 参考訳(メタデータ) (2022-06-15T14:34:15Z) - Unsupervised Object-Level Representation Learning from Scene Images [97.07686358706397]
Object-level Representation Learning (ORL) はシーンイメージに対する新たな自己教師型学習フレームワークである。
我々の重要な洞察は、画像レベルの自己教師付き事前学習を、オブジェクトレベルの意味的対応を見つけるための事前学習として活用することである。
ORLは、複数の下流タスクにおける教師付きImageNet事前学習を超越しても、シーンイメージ上での自己教師型学習のパフォーマンスを著しく向上させる。
論文 参考訳(メタデータ) (2021-06-22T17:51:24Z) - Self-supervised Video Object Segmentation [76.83567326586162]
本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
論文 参考訳(メタデータ) (2020-06-22T17:55:59Z) - Rethinking Few-Shot Image Classification: a Good Embedding Is All You
Need? [72.00712736992618]
メタトレーニングセット上で教師付きあるいは自己教師型表現を学習する単純なベースラインが、最先端の数ショット学習方法より優れていることを示す。
追加の増量は自己蒸留によって達成できる。
我々は,この発見が,画像分類ベンチマークとメタ学習アルゴリズムの役割を再考する動機となっていると考えている。
論文 参考訳(メタデータ) (2020-03-25T17:58:42Z) - Acceleration of Actor-Critic Deep Reinforcement Learning for Visual
Grasping in Clutter by State Representation Learning Based on Disentanglement
of a Raw Input Image [4.970364068620608]
アクター・クリティック・ディープ・強化学習(RL)法は、多種多様な物体をつかむ際には、通常非常に低性能である。
状態表現学習 (SRL) を用いて, RL において重要な情報をまずエンコードする。
その結果,原画像の歪みに基づく前処理が,コンパクトな表現を効果的に捉える鍵であることが判明した。
論文 参考訳(メタデータ) (2020-02-27T03:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。