論文の概要: Monte-Carlo Siamese Policy on Actor for Satellite Image Super Resolution
- arxiv url: http://arxiv.org/abs/2004.03879v1
- Date: Wed, 8 Apr 2020 08:39:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 09:02:42.024849
- Title: Monte-Carlo Siamese Policy on Actor for Satellite Image Super Resolution
- Title(参考訳): 衛星画像スーパーレゾリューションのためのアクターに関するモンテカルロ・シームズ政策
- Authors: Litu Rout, Saumyaa Shah, S Manthira Moorthi, Debajyoti Dhar
- Abstract要約: リモートセンシング画像の超解像における強化学習の有用性について検討した。
本稿では,教師付き学習と強化学習の利点を活用した理論的枠組みを提案する。
強化学習フレームワークにおける教師付きモデルのカプセル化による最先端手法の大幅な改善について報告する。
- 参考スコア(独自算出の注目度): 13.96995818103425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the past few years supervised and adversarial learning have been widely
adopted in various complex computer vision tasks. It seems natural to wonder
whether another branch of artificial intelligence, commonly known as
Reinforcement Learning (RL) can benefit such complex vision tasks. In this
study, we explore the plausible usage of RL in super resolution of remote
sensing imagery. Guided by recent advances in super resolution, we propose a
theoretical framework that leverages the benefits of supervised and
reinforcement learning. We argue that a straightforward implementation of RL is
not adequate to address ill-posed super resolution as the action variables are
not fully known. To tackle this issue, we propose to parameterize action
variables by matrices, and train our policy network using Monte-Carlo sampling.
We study the implications of parametric action space in a model-free
environment from theoretical and empirical perspective. Furthermore, we analyze
the quantitative and qualitative results on both remote sensing and non-remote
sensing datasets. Based on our experiments, we report considerable improvement
over state-of-the-art methods by encapsulating supervised models in a
reinforcement learning framework.
- Abstract(参考訳): 過去数年間、教師と敵対的な学習は様々な複雑なコンピュータビジョンタスクで広く採用されてきた。
強化学習(Reinforcement Learning, RL)として知られる人工知能の別の分野が、このような複雑な視覚タスクに役立てられるかどうか疑問に思うのは当然である。
本研究では,リモートセンシング画像の超解像におけるRLの有用性について検討する。
超解像の最近の進歩により,教師付き・強化学習の利点を活用した理論的枠組みを提案する。
RLの簡単な実装は、アクション変数が完全には分かっていないため、不適切な超解法に対処するには不十分である。
この問題に取り組むために,アクション変数を行列でパラメータ化し,モンテカルロサンプリングを用いてポリシーネットワークを訓練する。
モデル自由環境におけるパラメトリックな行動空間の意味を理論的および経験的観点から検討する。
さらに,リモートセンシングと非リモートセンシングデータセットの定量的・定性的な結果を分析した。
本実験では,教師付きモデルを強化学習フレームワークにカプセル化することにより,最先端の手法に対する大幅な改善を報告した。
関連論文リスト
- M2CURL: Sample-Efficient Multimodal Reinforcement Learning via
Self-Supervised Representation Learning for Robotic Manipulation [0.850206009406913]
マルチモーダルコントラスト非教師強化学習(M2CURL)を提案する。
提案手法は,効率的な表現を学習し,RLアルゴリズムの高速収束に寄与する,新しいマルチモーダル自己教師学習技術を用いている。
Tactile Gym 2シミュレータ上でのM2CURLの評価を行い、異なる操作タスクにおける学習効率を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-01-30T14:09:35Z) - Reparameterized Policy Learning for Multimodal Trajectory Optimization [61.13228961771765]
本研究では,高次元連続行動空間における強化学習のためのパラメータ化政策の課題について検討する。
本稿では,連続RLポリシーを最適軌道の生成モデルとしてモデル化する原理的フレームワークを提案する。
本稿では,マルチモーダルポリシーパラメータ化と学習世界モデルを活用した実用的モデルベースRL手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T09:05:46Z) - Predictive Experience Replay for Continual Visual Control and
Forecasting [62.06183102362871]
視覚力学モデリングのための新しい連続学習手法を提案し,その視覚制御と予測における有効性について検討する。
まず,タスク固有のダイナミクスをガウスの混合で学習する混合世界モデルを提案し,その上で,破滅的な忘れを克服するための新たなトレーニング戦略を提案する。
我々のモデルは,DeepMind Control と Meta-World のベンチマークにおいて,既存の連続的学習アルゴリズムと視覚的RLアルゴリズムの単純な組み合わせよりも優れている。
論文 参考訳(メタデータ) (2023-03-12T05:08:03Z) - SAM-RL: Sensing-Aware Model-Based Reinforcement Learning via
Differentiable Physics-Based Simulation and Rendering [49.78647219715034]
本稿では,SAM-RL と呼ばれる感性認識モデルに基づく強化学習システムを提案する。
SAM-RLは、センサーを意識した学習パイプラインによって、ロボットがタスクプロセスを監視するための情報的視点を選択することを可能にする。
我々は,ロボット組立,ツール操作,変形可能なオブジェクト操作という3つの操作タスクを達成するための実世界の実験に,我々のフレームワークを適用した。
論文 参考訳(メタデータ) (2022-10-27T05:30:43Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - Light-weight probing of unsupervised representations for Reinforcement
Learning [10.642105903491421]
分散度が低く,計算コストが最大600倍の教師なし視覚表現の評価プロトコルを提案する。
本研究では,ある状態における報酬の予測と,ある状態における専門家の行動の予測という2つの線形探索タスクを提案する。
厳密な実験により,Atari100kベンチマークの下流制御性能と強く相関していることを示す。
論文 参考訳(メタデータ) (2022-08-25T21:08:01Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - Exploratory State Representation Learning [63.942632088208505]
本稿では,XSRL(eXploratory State Representation Learning)と呼ばれる新しい手法を提案する。
一方、コンパクトな状態表現と、その表現から不可解な情報を除去するために使用される状態遷移推定器を共同で学習する。
一方、逆モデルを継続的に訓練し、このモデルの予測誤差に$k$-stepの学習促進ボーナスを加え、発見ポリシーの目的を形成する。
論文 参考訳(メタデータ) (2021-09-28T10:11:07Z) - Ready Policy One: World Building Through Active Learning [35.358315617358976]
本稿では,モデルに基づく強化学習を積極的学習問題とみなすフレームワークであるReady Policy One(RP1)を紹介する。
RP1は、最適化中に重要な適応を行うハイブリッド目的関数を利用することで、これを実現する。
本手法を各種連続制御タスクにおいて厳密に評価し,既存手法に比べて統計的に有意な向上を示した。
論文 参考訳(メタデータ) (2020-02-07T09:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。