論文の概要: Monte-Carlo Siamese Policy on Actor for Satellite Image Super Resolution
- arxiv url: http://arxiv.org/abs/2004.03879v1
- Date: Wed, 8 Apr 2020 08:39:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 09:02:42.024849
- Title: Monte-Carlo Siamese Policy on Actor for Satellite Image Super Resolution
- Title(参考訳): 衛星画像スーパーレゾリューションのためのアクターに関するモンテカルロ・シームズ政策
- Authors: Litu Rout, Saumyaa Shah, S Manthira Moorthi, Debajyoti Dhar
- Abstract要約: リモートセンシング画像の超解像における強化学習の有用性について検討した。
本稿では,教師付き学習と強化学習の利点を活用した理論的枠組みを提案する。
強化学習フレームワークにおける教師付きモデルのカプセル化による最先端手法の大幅な改善について報告する。
- 参考スコア(独自算出の注目度): 13.96995818103425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the past few years supervised and adversarial learning have been widely
adopted in various complex computer vision tasks. It seems natural to wonder
whether another branch of artificial intelligence, commonly known as
Reinforcement Learning (RL) can benefit such complex vision tasks. In this
study, we explore the plausible usage of RL in super resolution of remote
sensing imagery. Guided by recent advances in super resolution, we propose a
theoretical framework that leverages the benefits of supervised and
reinforcement learning. We argue that a straightforward implementation of RL is
not adequate to address ill-posed super resolution as the action variables are
not fully known. To tackle this issue, we propose to parameterize action
variables by matrices, and train our policy network using Monte-Carlo sampling.
We study the implications of parametric action space in a model-free
environment from theoretical and empirical perspective. Furthermore, we analyze
the quantitative and qualitative results on both remote sensing and non-remote
sensing datasets. Based on our experiments, we report considerable improvement
over state-of-the-art methods by encapsulating supervised models in a
reinforcement learning framework.
- Abstract(参考訳): 過去数年間、教師と敵対的な学習は様々な複雑なコンピュータビジョンタスクで広く採用されてきた。
強化学習(Reinforcement Learning, RL)として知られる人工知能の別の分野が、このような複雑な視覚タスクに役立てられるかどうか疑問に思うのは当然である。
本研究では,リモートセンシング画像の超解像におけるRLの有用性について検討する。
超解像の最近の進歩により,教師付き・強化学習の利点を活用した理論的枠組みを提案する。
RLの簡単な実装は、アクション変数が完全には分かっていないため、不適切な超解法に対処するには不十分である。
この問題に取り組むために,アクション変数を行列でパラメータ化し,モンテカルロサンプリングを用いてポリシーネットワークを訓練する。
モデル自由環境におけるパラメトリックな行動空間の意味を理論的および経験的観点から検討する。
さらに,リモートセンシングと非リモートセンシングデータセットの定量的・定性的な結果を分析した。
本実験では,教師付きモデルを強化学習フレームワークにカプセル化することにより,最先端の手法に対する大幅な改善を報告した。
関連論文リスト
- An Examination of Offline-Trained Encoders in Vision-Based Deep Reinforcement Learning for Autonomous Driving [0.0]
部分観測可能なマルコフ決定過程(POMDP)における深層強化学習(DRL)の課題に関する研究
我々の研究は、オフラインで訓練されたエンコーダを用いて、自己教師付き学習を通じて大規模なビデオデータセットを活用し、一般化可能な表現を学習する。
CARLAシミュレータにおいて,BDD100Kの運転映像から得られた特徴を直接転送することで,車線追従や衝突回避を実現することができることを示す。
論文 参考訳(メタデータ) (2024-09-02T14:16:23Z) - Exploring the limits of Hierarchical World Models in Reinforcement Learning [0.7499722271664147]
我々は,新しいHMBRLフレームワークを記述し,それを徹底的に評価する。
時間的抽象の様々なレベルで環境力学をシミュレートする階層的世界モデルを構築した。
ほとんどのゴール条件付き H(MB)RL アプローチとは異なり、これは相対的に低次元の抽象作用をもたらす。
論文 参考訳(メタデータ) (2024-06-01T16:29:03Z) - Reparameterized Policy Learning for Multimodal Trajectory Optimization [61.13228961771765]
本研究では,高次元連続行動空間における強化学習のためのパラメータ化政策の課題について検討する。
本稿では,連続RLポリシーを最適軌道の生成モデルとしてモデル化する原理的フレームワークを提案する。
本稿では,マルチモーダルポリシーパラメータ化と学習世界モデルを活用した実用的モデルベースRL手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T09:05:46Z) - Predictive Experience Replay for Continual Visual Control and
Forecasting [62.06183102362871]
視覚力学モデリングのための新しい連続学習手法を提案し,その視覚制御と予測における有効性について検討する。
まず,タスク固有のダイナミクスをガウスの混合で学習する混合世界モデルを提案し,その上で,破滅的な忘れを克服するための新たなトレーニング戦略を提案する。
我々のモデルは,DeepMind Control と Meta-World のベンチマークにおいて,既存の連続的学習アルゴリズムと視覚的RLアルゴリズムの単純な組み合わせよりも優れている。
論文 参考訳(メタデータ) (2023-03-12T05:08:03Z) - SAM-RL: Sensing-Aware Model-Based Reinforcement Learning via
Differentiable Physics-Based Simulation and Rendering [49.78647219715034]
本稿では,SAM-RL と呼ばれる感性認識モデルに基づく強化学習システムを提案する。
SAM-RLは、センサーを意識した学習パイプラインによって、ロボットがタスクプロセスを監視するための情報的視点を選択することを可能にする。
我々は,ロボット組立,ツール操作,変形可能なオブジェクト操作という3つの操作タスクを達成するための実世界の実験に,我々のフレームワークを適用した。
論文 参考訳(メタデータ) (2022-10-27T05:30:43Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - Exploratory State Representation Learning [63.942632088208505]
本稿では,XSRL(eXploratory State Representation Learning)と呼ばれる新しい手法を提案する。
一方、コンパクトな状態表現と、その表現から不可解な情報を除去するために使用される状態遷移推定器を共同で学習する。
一方、逆モデルを継続的に訓練し、このモデルの予測誤差に$k$-stepの学習促進ボーナスを加え、発見ポリシーの目的を形成する。
論文 参考訳(メタデータ) (2021-09-28T10:11:07Z) - Ready Policy One: World Building Through Active Learning [35.358315617358976]
本稿では,モデルに基づく強化学習を積極的学習問題とみなすフレームワークであるReady Policy One(RP1)を紹介する。
RP1は、最適化中に重要な適応を行うハイブリッド目的関数を利用することで、これを実現する。
本手法を各種連続制御タスクにおいて厳密に評価し,既存手法に比べて統計的に有意な向上を示した。
論文 参考訳(メタデータ) (2020-02-07T09:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。