論文の概要: Functional Regularization for Reinforcement Learning via Learned Fourier
Features
- arxiv url: http://arxiv.org/abs/2112.03257v1
- Date: Mon, 6 Dec 2021 18:59:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 14:27:03.842556
- Title: Functional Regularization for Reinforcement Learning via Learned Fourier
Features
- Title(参考訳): フーリエ学習による強化学習のための機能正規化
- Authors: Alexander C. Li, Deepak Pathak
- Abstract要約: 本稿では、入力を学習されたフーリエベースに埋め込むことにより、深層強化学習のための簡単なアーキテクチャを提案する。
その結果、状態ベースと画像ベースの両方のRLのサンプル効率が向上することがわかった。
- 参考スコア(独自算出の注目度): 98.90474131452588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a simple architecture for deep reinforcement learning by embedding
inputs into a learned Fourier basis and show that it improves the sample
efficiency of both state-based and image-based RL. We perform infinite-width
analysis of our architecture using the Neural Tangent Kernel and theoretically
show that tuning the initial variance of the Fourier basis is equivalent to
functional regularization of the learned deep network. That is, these learned
Fourier features allow for adjusting the degree to which networks underfit or
overfit different frequencies in the training data, and hence provide a
controlled mechanism to improve the stability and performance of RL
optimization. Empirically, this allows us to prioritize learning low-frequency
functions and speed up learning by reducing networks' susceptibility to noise
in the optimization process, such as during Bellman updates. Experiments on
standard state-based and image-based RL benchmarks show clear benefits of our
architecture over the baselines. Website at
https://alexanderli.com/learned-fourier-features
- Abstract(参考訳): 本稿では,入力を学習されたフーリエベースに埋め込むことにより,深層強化学習のための簡単なアーキテクチャを提案し,状態ベースと画像ベースの両方のRLのサンプル効率を向上させることを示す。
我々はニューラルタンジェントカーネルを用いてアーキテクチャの無限幅解析を行い、フーリエ基底の初期分散をチューニングすることは学習した深層ネットワークの機能正規化と等価であることを示す。
つまり、これらの学習されたフーリエ機能は、トレーニングデータの異なる周波数に適合するネットワークの程度を調整できるため、rl最適化の安定性と性能を向上させるための制御メカニズムを提供する。
経験的に、ベルマン更新などの最適化プロセスにおいて、ネットワークのノイズ感受性を低減し、低周波関数の学習を優先し、学習を高速化することができる。
標準状態ベースおよび画像ベースRLベンチマークの実験は、ベースラインよりもアーキテクチャの明確なメリットを示している。
website at https://alexanderli.com/learned-fourier-features
関連論文リスト
- Robust Fourier Neural Networks [1.0589208420411014]
フーリエ埋込層の後, 単純な対角層を導入することにより, ネットワークの騒音測定がより堅牢になることを示す。
特定の条件下では,フーリエ関数の非線形関数の雑音混合である関数も学習することができる。
論文 参考訳(メタデータ) (2024-09-03T16:56:41Z) - LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - Towards Explainable Machine Learning: The Effectiveness of Reservoir
Computing in Wireless Receive Processing [21.843365090029987]
本稿では,Reservoir Computing (RC) と呼ばれる一般的な学習手法を適用し,チャネル等化の具体的課題について検討する。
RCは従来の手法や学習に基づく手法に比べて優れた性能を示した。
また,これをシミュレーションにより最適化することにより,受信処理/シンボル検出性能の向上を示す。
論文 参考訳(メタデータ) (2023-10-08T00:44:35Z) - Fourier-DeepONet: Fourier-enhanced deep operator networks for full
waveform inversion with improved accuracy, generalizability, and robustness [4.186792090302649]
FWI(Full Waveform Inversion)は、非最適化問題を解くことにより、波形データから構造情報を推測する。
そこで我々は、FWIの周波数や音源の位置を含む情報源を一般化したニューラルネットワーク(Fourier-DeepONet)を開発した。
実験により,Fourier-DeepONetはより高精度な地下構造予測を行うことができた。
論文 参考訳(メタデータ) (2023-05-26T22:17:28Z) - Properties and Potential Applications of Random Functional-Linked Types
of Neural Networks [81.56822938033119]
ランダム関数リンクニューラルネットワーク(RFLNN)は、深い構造を学習する別の方法を提供する。
本稿では周波数領域の観点からRFLNNの特性について考察する。
本稿では,より優れた性能でBLSネットワークを生成する手法を提案し,ポゾン方程式を解くための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-03T13:25:22Z) - Fourier Sensitivity and Regularization of Computer Vision Models [11.79852671537969]
本稿では,ディープニューラルネットワークの周波数感度特性について,原理的アプローチを用いて検討する。
コンピュータビジョンモデルは、データセット、トレーニング方法、アーキテクチャに依存する特定の周波数に一貫して敏感であることがわかった。
論文 参考訳(メタデータ) (2023-01-31T10:05:35Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - Fourier Space Losses for Efficient Perceptual Image Super-Resolution [131.50099891772598]
提案した損失関数の適用のみで,最近導入された効率的なジェネレータアーキテクチャの性能向上が可能であることを示す。
フーリエ空間における周波数に対する損失の直接的強調は知覚的画質を著しく向上させることを示す。
訓練されたジェネレータは、最先端の知覚的SR法である RankSRGAN と SRFlow よりも2.4倍、48倍高速である。
論文 参考訳(メタデータ) (2021-06-01T20:34:52Z) - Learning to Learn Kernels with Variational Random Features [118.09565227041844]
メタラーニングフレームワークにランダムなフーリエ機能を持つカーネルを導入し、その強力な数ショット学習能力を活用する。
変分推論問題としてメタVRFの最適化を定式化する。
MetaVRFは、既存のメタ学習方法に比べて、はるかに優れた、少なくとも競争力のあるパフォーマンスを提供します。
論文 参考訳(メタデータ) (2020-06-11T18:05:29Z) - Fourier Neural Networks as Function Approximators and Differential
Equation Solvers [0.456877715768796]
活性化と損失関数の選択は、フーリエ級数展開を密接に再現する結果をもたらす。
我々はこのFNNを自然周期的滑らかな関数と断片的連続周期関数で検証する。
現在のアプローチの主な利点は、トレーニング領域外のソリューションの有効性、トレーニングされたモデルの解釈可能性、使用の単純さである。
論文 参考訳(メタデータ) (2020-05-27T00:30:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。