論文の概要: ZetA: A Riemann Zeta-Scaled Extension of Adam for Deep Learning
- arxiv url: http://arxiv.org/abs/2508.02719v1
- Date: Fri, 01 Aug 2025 02:53:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.577595
- Title: ZetA: A Riemann Zeta-Scaled Extension of Adam for Deep Learning
- Title(参考訳): ZetA: ディープラーニングのためのAdamのリーマンゼータスケール拡張
- Authors: Samiksha BC,
- Abstract要約: ZetAは、ゼータ関数に基づいた動的スケーリングを組み込むことでAdamを拡張する新しいディープラーニングシステムである。
我々は,ZetAがAdamの雑音や高粒度分類タスクにおいて,計算効率が高く,頑健な代替手段であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work introduces ZetA, a novel deep learning optimizer that extends Adam by incorporating dynamic scaling based on the Riemann zeta function. To the best of our knowledge, ZetA is the first optimizer to apply zeta-based gradient scaling within deep learning optimization. The method improves generalization and robustness through a hybrid update mechanism that integrates adaptive damping, cosine similarity-based momentum boosting, entropy-regularized loss, and Sharpness-Aware Minimization (SAM)-style perturbations. Empirical evaluations on SVHN, CIFAR10, CIFAR100, STL10, and noisy CIFAR10 consistently show test accuracy improvements over Adam. All experiments employ a lightweight fully connected network trained for five epochs under mixed-precision settings. The results demonstrate that ZetA is a computationally efficient and robust alternative to Adam, particularly effective in noisy or high-granularity classification tasks.
- Abstract(参考訳): この研究は、Riemann zeta関数に基づいた動的スケーリングを導入することでAdamを拡張する新しいディープラーニングオプティマイザであるZetAを紹介する。
私たちの知る限りでは、ZetAは、ディープラーニング最適化にゼータベースの勾配スケーリングを適用した最初のオプティマイザです。
適応減衰、コサイン類似性に基づく運動量増強、エントロピー規則化損失、シャープネス・アウェア最小化(SAM)スタイルの摂動を統合するハイブリッド更新機構により、一般化と堅牢性を向上させる。
SVHN, CIFAR10, CIFAR100, STL10, CIFAR10に対する実験的な評価は、Adamに対する試験精度の改善を一貫して示している。
すべての実験では、混合精度設定の下で5つのエポックで訓練された軽量で完全に接続されたネットワークを使用している。
その結果、ZetAはAdamの計算効率が良く、頑健な代替品であり、特にノイズや高粒度の分類タスクに有効であることが示されている。
関連論文リスト
- Artificial Liver Classifier: A New Alternative to Conventional Machine Learning Models [4.395397502990339]
本稿では,ヒト肝臓の解毒機能に触発された新しい教師付き学習分類器であるArtificial Liver(ALC)を紹介する。
ALCの特徴は、その単純さ、速度、ハイパーパラメータフリー、オーバーフィッティングを減らす能力、そして多重分類問題に対処する効果である。
Iris Flower、Breast Cancer Wisconsin、Wine、Voice Gender、MNISTの5つのベンチマーク機械学習データセットで評価された。
論文 参考訳(メタデータ) (2025-01-14T12:42:01Z) - EXAdam: The Power of Adaptive Cross-Moments [0.0]
本稿では,広く使用されているAdamアルゴリズムに基づく新しい最適化アルゴリズムであるEXAdamを紹介する。
EXAdamは、(1)モーメント推定を改善するための新しいデバイアス項と(2)勾配に基づく加速度メカニズムの2つの重要な拡張を取り入れている。
実験的な評価は、ExAdamがAdamよりも優れており、収束が38.46%速く、1.96%、2.17%、そして1.17%のトレーニング、検証、テストの精度が向上したことを示している。
論文 参考訳(メタデータ) (2024-12-29T00:11:54Z) - Towards Simple and Provable Parameter-Free Adaptive Gradient Methods [56.060918447252625]
本稿では,AdaGrad++とAdam++について述べる。
我々は,AdaGrad++がAdaGradに比較して,事前定義された学習率の仮定を伴わずに,凸最適化においてAdaGradと同等の収束率を達成したことを証明した。
論文 参考訳(メタデータ) (2024-12-27T04:22:02Z) - Adaptive Friction in Deep Learning: Enhancing Optimizers with Sigmoid and Tanh Function [0.0]
我々は適応摩擦係数を統合する2つの新しい勾配であるsigSignGradとtanhSignGradを紹介する。
我々の理論解析は,摩擦係数Sの広帯域調整能力を示す。
ResNet50 と ViT アーキテクチャを用いた CIFAR-10, Mini-Image-Net 実験により,提案手法の優れた性能が確認された。
論文 参考訳(メタデータ) (2024-08-07T03:20:46Z) - Surge Phenomenon in Optimal Learning Rate and Batch Size Scaling [27.058009599819012]
本稿では,Adamスタイルにおける最適学習率とバッチサイズとの関係について検討する。
最適学習率が最初に上昇し、バッチサイズが大きくなるにつれて低下することを示す。
論文 参考訳(メタデータ) (2024-05-23T13:52:36Z) - MADA: Meta-Adaptive Optimizers through hyper-gradient Descent [73.1383658672682]
メタ適応(MADA)は、複数の既知の収束を一般化し、トレーニング中に最も適した収束を動的に学習できる統合フレームワークである。
私たちは、MADAを視覚や言語タスクに関する他の人気と経験的に比較し、MADAがAdamや他の人気を一貫して上回っていることに気付きました。
AVGradは最大演算子を平均演算子に置き換えたもので、高次最適化に適している。
論文 参考訳(メタデータ) (2024-01-17T00:16:46Z) - AdaLomo: Low-memory Optimization with Adaptive Learning Rate [59.64965955386855]
大規模言語モデルに対する適応学習率(AdaLomo)を用いた低メモリ最適化を提案する。
AdaLomoはAdamWと同等の結果を得ると同時に、メモリ要件を大幅に削減し、大きな言語モデルをトレーニングするためのハードウェア障壁を低くする。
論文 参考訳(メタデータ) (2023-10-16T09:04:28Z) - Read the Signs: Towards Invariance to Gradient Descent's Hyperparameter
Initialization [3.1153758106426603]
学習速度を$alpha$でローカライズする最適化メタアルゴリズムであるActiveLRを提案し,各エポックの勾配が符号を変更するか否かに応じて各エポックに適応する。
我々は、広く使われ、最近公開された勾配勾配勾配、すなわち運動量を持つSGD、AdamW、RAdam、AdaBeliefのアクティブバージョン(我々のもの)を実装している。
論文 参考訳(メタデータ) (2023-01-24T16:57:00Z) - Meta-Learning with Adaptive Hyperparameters [55.182841228303225]
我々は、MAMLフレームワークの補完的要素、インナーループ最適化(あるいは高速適応)に焦点を当てる。
高速適応プロセスを大幅に向上させる新しい重み更新ルールを提案する。
論文 参考訳(メタデータ) (2020-10-31T08:05:34Z) - MaxVA: Fast Adaptation of Step Sizes by Maximizing Observed Variance of
Gradients [112.00379151834242]
本稿では,Adamにおける2乗勾配のランニング平均を重み付き平均に置き換える適応学習率の原理を提案する。
これにより、より高速な適応が可能となり、より望ましい経験的収束挙動がもたらされる。
論文 参考訳(メタデータ) (2020-06-21T21:47:43Z) - ADAHESSIAN: An Adaptive Second Order Optimizer for Machine Learning [91.13797346047984]
本稿では,2次最適化アルゴリズムであるADAHESSIANを紹介する。
ADAHESSIANは、他の適応最適化手法と比較して、新しい最先端の成果を大きなマージンで達成することを示す。
論文 参考訳(メタデータ) (2020-06-01T05:00:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。