論文の概要: Visual Radial Basis Q-Network
- arxiv url: http://arxiv.org/abs/2206.06712v1
- Date: Tue, 14 Jun 2022 09:34:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 00:07:08.106435
- Title: Visual Radial Basis Q-Network
- Title(参考訳): 視覚ラジアル基底qネットワーク
- Authors: Julien Hautot, C\'eline Teuliere and Nourddine Azzaoui
- Abstract要約: トレーニング可能なパラメータの少ない原画像からスパース特徴を抽出する汎用手法を提案する。
提案手法は、概念的に単純でありながら、トレーニング可能なパラメータが少ない場合もあれば、より優れたパフォーマンスを提供する。
- 参考スコア(独自算出の注目度): 0.2148535041822524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While reinforcement learning (RL) from raw images has been largely
investigated in the last decade, existing approaches still suffer from a number
of constraints. The high input dimension is often handled using either expert
knowledge to extract handcrafted features or environment encoding through
convolutional networks. Both solutions require numerous parameters to be
optimized. In contrast, we propose a generic method to extract sparse features
from raw images with few trainable parameters. We achieved this using a Radial
Basis Function Network (RBFN) directly on raw image. We evaluate the
performance of the proposed approach for visual extraction in Q-learning tasks
in the Vizdoom environment. Then, we compare our results with two Deep
Q-Network, one trained directly on images and another one trained on feature
extracted by a pretrained auto-encoder. We show that the proposed approach
provides similar or, in some cases, even better performances with fewer
trainable parameters while being conceptually simpler.
- Abstract(参考訳): 原画像からの強化学習(RL)は過去10年間に大きく研究されてきたが、既存のアプローチには多くの制約がある。
高入力次元は、しばしば、畳み込みネットワークを介して手作りの特徴や環境エンコーディングを抽出するために専門家の知識を使用して処理される。
どちらのソリューションも最適化に多くのパラメータを必要とする。
対照的に,訓練可能なパラメータが少ない生画像からスパース特徴を抽出する汎用手法を提案する。
生画像から直接放射基底関数ネットワーク(RBFN)を用いてこれを達成した。
本稿では,vizdoom環境におけるq-learningタスクにおける視覚抽出手法の性能評価を行った。
次に,画像上で直接トレーニングされた2つの深いqネットワークと,事前学習されたオートエンコーダによって抽出された特徴に基づいてトレーニングされた2つのqネットワークを比較した。
提案手法は,概念的にシンプルでありながら,学習可能なパラメータの少ない,より優れた性能を提供する。
関連論文リスト
- CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - Reinforcement Learning from Diffusion Feedback: Q* for Image Search [2.5835347022640254]
モデル非依存学習を用いた画像生成のための2つのモデルを提案する。
RLDFは、事前保存された報酬関数誘導による視覚模倣のための特異なアプローチである。
クラス一貫性と強力な視覚的多様性を示す様々な領域にまたがる高品質な画像を生成する。
論文 参考訳(メタデータ) (2023-11-27T09:20:12Z) - Raw or Cooked? Object Detection on RAW Images [11.991240159496833]
本稿では,映像の中間表現が下流コンピュータビジョンタスクに最適であるという仮説を考察する。
我々は,ISP の操作を,トレーニング中に共同で操作のパラメータを学習することで,エンドタスクに最適化するべきであることを示唆する。
本稿では,従来のRGB画像と比較して,物体検出装置が優れた性能を発揮するための学習可能な新たな操作を提案する。
論文 参考訳(メタデータ) (2023-01-21T15:42:53Z) - Rank-Enhanced Low-Dimensional Convolution Set for Hyperspectral Image
Denoising [50.039949798156826]
本稿では,ハイパースペクトル(HS)画像の難解化問題に対処する。
ランク付き低次元畳み込み集合(Re-ConvSet)を提案する。
次に、Re-ConvSetを広く使われているU-Netアーキテクチャに組み込んで、HS画像復号法を構築する。
論文 参考訳(メタデータ) (2022-07-09T13:35:12Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - Deep Iterative Residual Convolutional Network for Single Image
Super-Resolution [31.934084942626257]
我々は、ISRResCNet(Deep Iterative Super-Resolution Residual Convolutional Network)を提案する。
残差学習アプローチを用いて、深層ネットワークを反復的に訓練することにより、強力な画像正規化と大規模最適化手法を活用する。
トレーニング可能なパラメータがいくつかある本手法は,最先端の手法と比較して,異なるスケーリング要因に対する結果を改善する。
論文 参考訳(メタデータ) (2020-09-07T12:54:14Z) - A deep primal-dual proximal network for image restoration [8.797434238081372]
我々は、プリミティブ・デュアル・イテレーションから構築されたディープPDNetというディープネットワークを設計し、前もって分析を行い、標準的なペナル化可能性の最小化を図った。
フルラーニング」と「パートラーニング」の2つの異なる学習戦略が提案され、第1は最も効率的な数値である。
以上の結果から,提案したDeepPDNetは,MNISTと,より複雑なBSD68,BSD100,SET14データセットにおいて,画像復元と単一画像超解像処理に優れた性能を示した。
論文 参考訳(メタデータ) (2020-07-02T08:29:52Z) - The Power of Triply Complementary Priors for Image Compressive Sensing [89.14144796591685]
本稿では,一対の相補的な旅先を含むLRD画像モデルを提案する。
次に、画像CSのためのRDモデルに基づく新しいハイブリッド・プラグイン・アンド・プレイ・フレームワークを提案する。
そこで,提案したH-based image CS問題の解法として,単純で効果的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-16T08:17:44Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。