論文の概要: Performance Analysis of Fractional Learning Algorithms
- arxiv url: http://arxiv.org/abs/2110.05201v1
- Date: Mon, 11 Oct 2021 12:06:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 20:52:12.357612
- Title: Performance Analysis of Fractional Learning Algorithms
- Title(参考訳): 分数学習アルゴリズムの性能解析
- Authors: Abdul Wahab, Shujaat Khan, Imran Naseem, Jong Chul Ye
- Abstract要約: 従来のアルゴリズムよりも格段に優越性が高いかどうかは定かでないが、その性能が広範に分析されることはなかったため神話である。
本稿では,最小平均二乗および最急降下アルゴリズムの分数変分を厳密に解析する。
学習アルゴリズムの性能に関するその起源と結果について論じ,素早い準備の整った治療法を提案する。
- 参考スコア(独自算出の注目度): 32.21539962359158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fractional learning algorithms are trending in signal processing and adaptive
filtering recently. However, it is unclear whether the proclaimed superiority
over conventional algorithms is well-grounded or is a myth as their performance
has never been extensively analyzed. In this article, a rigorous analysis of
fractional variants of the least mean squares and steepest descent algorithms
is performed. Some critical schematic kinks in fractional learning algorithms
are identified. Their origins and consequences on the performance of the
learning algorithms are discussed and swift ready-witted remedies are proposed.
Apposite numerical experiments are conducted to discuss the convergence and
efficiency of the fractional learning algorithms in stochastic environments.
- Abstract(参考訳): 分数学習アルゴリズムは最近、信号処理と適応フィルタリングのトレンドとなっている。
しかし、従来のアルゴリズムよりも優越性が高いか、その性能が広く分析されていない神話かは定かではない。
本稿では,最小平均二乗法と最急降下アルゴリズムの分数変分法の厳密な解析を行う。
分数学習アルゴリズムにおけるいくつかの重要なスキーマキネクが同定される。
その起源と学習アルゴリズムの性能への影響を考察し,swift ready-witted remediesを提案する。
確率環境における分数学習アルゴリズムの収束と効率を議論するために,アポサイト数値実験を行った。
関連論文リスト
- Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - Dual Algorithmic Reasoning [9.701208207491879]
本稿では,基礎となるアルゴリズム問題の双対性を利用してアルゴリズムを学習することを提案する。
アルゴリズム学習における最適化問題の2つの定義を同時に学習することで、より良い学習が可能になることを実証する。
次に、難易度の高い脳血管分類タスクにデプロイすることで、二元アルゴリズム推論の現実的な実用性を検証する。
論文 参考訳(メタデータ) (2023-02-09T08:46:23Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Towards Diverse Evaluation of Class Incremental Learning: A Representation Learning Perspective [67.45111837188685]
クラスインクリメンタル学習(CIL)アルゴリズムは、インクリメンタルに到着したデータから新しいオブジェクトクラスを継続的に学習することを目的としている。
表現学習における様々な評価プロトコルを用いて,CILアルゴリズムによって訓練されたニューラルネットワークモデルを実験的に解析する。
論文 参考訳(メタデータ) (2022-06-16T11:44:11Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - Benchmarking Simulation-Based Inference [5.3898004059026325]
確率的モデリングの最近の進歩は、確率の数値的評価を必要としないシミュレーションに基づく推論アルゴリズムを多数もたらした。
推論タスクと適切なパフォーマンス指標を備えたベンチマークを,アルゴリズムの初期選択とともに提供する。
性能指標の選択は重要であり、最先端のアルゴリズムでさえ改善の余地があり、逐次推定によりサンプリング効率が向上することがわかった。
論文 参考訳(メタデータ) (2021-01-12T18:31:22Z) - Evolving Reinforcement Learning Algorithms [186.62294652057062]
メタラーニング強化学習アルゴリズムの手法を提案する。
学習アルゴリズムはドメインに依存しないため、トレーニング中に見えない新しい環境に一般化することができる。
従来の制御タスク、gridworld型タスク、atariゲームよりも優れた一般化性能を得る2つの学習アルゴリズムに注目した。
論文 参考訳(メタデータ) (2021-01-08T18:55:07Z) - Enhancing accuracy of deep learning algorithms by training with
low-discrepancy sequences [15.2292571922932]
トレーニングセットとして低差分シーケンスに基づく深層教師付き学習アルゴリズムを提案する。
提案アルゴリズムは, 適度な高次元の問題に対して, 標準的なディープラーニングアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-26T08:14:00Z) - Second-Order Guarantees in Centralized, Federated and Decentralized
Nonconvex Optimization [64.26238893241322]
単純なアルゴリズムは、多くの文脈において優れた経験的結果をもたらすことが示されている。
いくつかの研究は、非最適化問題を研究するための厳密な分析的正当化を追求している。
これらの分析における重要な洞察は、摂動が局所的な降下アルゴリズムを許容する上で重要な役割を担っていることである。
論文 参考訳(メタデータ) (2020-03-31T16:54:22Z) - Overall error analysis for the training of deep neural networks via
stochastic gradient descent with random initialisation [2.4874453414078896]
本研究では,2次損失関数を用いた深層学習に基づく経験的リスク最小化の数学的に厳密な完全誤差解析を行う。
しかし、我々は、確率論的に強い意味でのディープラーニングに基づくアルゴリズムのための、科学文献における最初の完全な誤り解析を確立した。
論文 参考訳(メタデータ) (2020-03-03T01:41:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。