論文の概要: Adaptive function approximation based on the Discrete Cosine Transform
(DCT)
- arxiv url: http://arxiv.org/abs/2309.00530v1
- Date: Fri, 1 Sep 2023 15:31:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-04 13:00:16.246361
- Title: Adaptive function approximation based on the Discrete Cosine Transform
(DCT)
- Title(参考訳): 離散コサイン変換(DCT)に基づく適応関数近似
- Authors: Ana I. P\'erez-Neira, Marc Martinez-Gost, Miguel \'Angel Lagunas
- Abstract要約: 本稿では,離散コサイン変換(DCT)の代わりに近似係数を求める教師あり学習について検討する。
余弦基底関数の有限ダイナミクスと勾配性により、正規化リースト平均正方形 (NLMS) のような単純なアルゴリズムはその恩恵を受けることができる。
この論文は、1973年にNasir Ahmed氏によるDCT出版50周年を記念している。
- 参考スコア(独自算出の注目度): 2.2713084727838115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the cosine as basis function for the approximation of
univariate and continuous functions without memory. This work studies a
supervised learning to obtain the approximation coefficients, instead of using
the Discrete Cosine Transform (DCT). Due to the finite dynamics and
orthogonality of the cosine basis functions, simple gradient algorithms, such
as the Normalized Least Mean Squares (NLMS), can benefit from it and present a
controlled and predictable convergence time and error misadjustment. Due to its
simplicity, the proposed technique ranks as the best in terms of learning
quality versus complexity, and it is presented as an attractive technique to be
used in more complex supervised learning systems. Simulations illustrate the
performance of the approach. This paper celebrates the 50th anniversary of the
publication of the DCT by Nasir Ahmed in 1973.
- Abstract(参考訳): 本稿では,記憶のない単変量および連続関数の近似の基底関数としてのコサインについて検討する。
本研究では、離散コサイン変換(DCT)の代わりに、教師付き学習を用いて近似係数を求める。
余弦基底関数の有限ダイナミクスと直交性のため、正規化リースト平均正方形 (NLMS) のような単純な勾配アルゴリズムは、その利点を生かし、制御され予測可能な収束時間と誤り調整を示すことができる。
その単純さから,提案手法は学習品質と複雑性の両面で最良と評価され,より複雑な教師付き学習システムで使用される魅力的な手法として提示される。
シミュレーションはアプローチのパフォーマンスを示しています。
この論文は、1973年にNasir Ahmed氏によるDCT出版50周年を記念している。
関連論文リスト
- Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Adaptive pruning-based Newton's method for distributed learning [14.885388389215587]
本稿では,分散適応ニュートン学習(textttDANL)という,新規で効率的なアルゴリズムを提案する。
textttDANLは、利用可能なリソースに効率よく適応し、高い効率を維持しながら、線形収束率を達成する。
実験により、textttDANLは、効率的な通信と異なるデータセット間の強い性能で線形収束を実現することが示された。
論文 参考訳(メタデータ) (2023-08-20T04:01:30Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - D4FT: A Deep Learning Approach to Kohn-Sham Density Functional Theory [79.50644650795012]
コーンシャム密度汎関数論(KS-DFT)を解くための深層学習手法を提案する。
このような手法はSCF法と同じ表現性を持つが,計算複雑性は低下する。
さらに,本手法により,より複雑なニューラルベース波動関数の探索が可能となった。
論文 参考訳(メタデータ) (2023-03-01T10:38:10Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Meta-Regularization: An Approach to Adaptive Choice of the Learning Rate
in Gradient Descent [20.47598828422897]
第一次下降法における学習率の適応的選択のための新しいアプローチであるtextit-Meta-Regularizationを提案する。
本手法は,正規化項を追加して目的関数を修正し,共同処理パラメータをキャストする。
論文 参考訳(メタデータ) (2021-04-12T13:13:34Z) - Sinkhorn Natural Gradient for Generative Models [125.89871274202439]
本研究では,シンクホーンの発散による確率空間上の最も急降下法として機能するシンクホーン自然勾配(SiNG)アルゴリズムを提案する。
本稿では,SiNG の主要成分であるシンクホーン情報行列 (SIM) が明示的な表現を持ち,対数的スケールの複雑さを正確に評価できることを示す。
本実験では,SiNGと最先端のSGD型解法を定量的に比較し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2020-11-09T02:51:17Z) - Fast Reinforcement Learning with Incremental Gaussian Mixture Models [0.0]
Incrmental Gaussian Mixture Network (IGMN)と呼ばれる単一パスから学習可能なオンラインおよびインクリメンタルなアルゴリズムが、結合状態とQ値空間のためのサンプル効率関数近似器として採用された。
IGMN関数近似器の使用は、勾配降下法で訓練された従来のニューラルネットワークと比較して、強化学習に重要な利点をもたらすことが観察された。
論文 参考訳(メタデータ) (2020-11-02T03:18:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。