論文の概要: Enhanced NIRMAL Optimizer With Damped Nesterov Acceleration: A Comparative Analysis
- arxiv url: http://arxiv.org/abs/2508.16550v1
- Date: Fri, 22 Aug 2025 17:16:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.470894
- Title: Enhanced NIRMAL Optimizer With Damped Nesterov Acceleration: A Comparative Analysis
- Title(参考訳): 減衰ネステロフ加速によるNIRMAL最適化の高速化 : 比較解析
- Authors: Nirmal Gaud, Prasad Krishna Murthy, Mostaque Md. Morshedur Hassan, Abhijit Ganguly, Vinay Mali, Ms Lalita Bhagwat Randive, Abhaypratap Singh,
- Abstract要約: NIRMAL (Damped Learning Nesterov Acceleration を用いた高次ロバスト適応)
我々は,Adamに対するNIRMALの強化,Momentum,NesterovによるSGD,および4つのベンチマーク画像分類データセットを用いたNIRMALの評価を行った。
NIRMALの精度は46.06%で、CIFAR-100では最も低い1.960435である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study introduces the Enhanced NIRMAL (Novel Integrated Robust Multi-Adaptation Learning with Damped Nesterov Acceleration) optimizer, an improved version of the original NIRMAL optimizer. By incorporating an $(\alpha, r)$-damped Nesterov acceleration mechanism, Enhanced NIRMAL improves convergence stability while retaining chess-inspired strategies of gradient descent, momentum, stochastic perturbations, adaptive learning rates, and non-linear transformations. We evaluate Enhanced NIRMAL against Adam, SGD with Momentum, Nesterov, and the original NIRMAL on four benchmark image classification datasets: MNIST, FashionMNIST, CIFAR-10, and CIFAR-100, using tailored convolutional neural network (CNN) architectures. Enhanced NIRMAL achieves a test accuracy of 46.06\% and the lowest test loss (1.960435) on CIFAR-100, surpassing the original NIRMAL (44.34\% accuracy) and closely rivaling SGD with Momentum (46.43\% accuracy). These results underscore Enhanced NIRMAL's superior generalization and stability, particularly on complex datasets.
- Abstract(参考訳): 本研究では、元のNIRMALオプティマイザの改良版である強化NIRMAL(Novel Integrated Robust Multi-Adaptation Learning with Damped Nesterov Acceleration)オプティマイザを提案する。
$(\alpha, r)$-damped Nesterov加速度機構を組み込むことで、NIRMALは、勾配降下、運動量、確率摂動、適応学習率、非線形変換といったチェスにインスパイアされた戦略を維持しながら収束安定性を向上させる。
我々は、MNIST、FashionMNIST、CIFAR-10、CIFAR-100の4つのベンチマーク画像分類データセットを用いて、Adamに対するNIRMALの強化、Momentum、NesterovによるSGD、元のNIRMALの4つのベンチマーク画像分類データセット(MNIST、FashionMNIST、CIFAR-10、CIFAR-100)を評価する。
強化されたNIRMALは、CIFAR-100で46.06\%の試験精度と最も低い試験損失(1.960435)を達成し、元のNIRMAL(44.34\%の精度)を上回り、モメンタム(46.43\%の精度)とSGDと密接に競合する。
これらの結果は、特に複雑なデータセットにおいて、NIRMALの優れた一般化と安定性を裏付けるものである。
関連論文リスト
- Comparative Analysis of Novel NIRMAL Optimizer Against Adam and SGD with Momentum [0.8437187555622164]
NIRMAL(Novel Integrated Robust Multi-Adaptation Learning)は、チェスの駒の動きにインスパイアされた複数の戦略を組み合わせた新しい最適化アルゴリズムである。
NIRMALは、特により困難なCIFAR-100データセットで、競争性能を達成する。
これらの知見は、様々なディープラーニングタスクのための汎用的で効果的なデータセットとして、NIRMALの有意義な能力を裏付けるものである。
論文 参考訳(メタデータ) (2025-08-06T10:30:22Z) - FedSVD: Adaptive Orthogonalization for Private Federated Learning with LoRA [61.79405341803085]
低ランク適応(LoRA)は、フェデレートラーニング(FL)における言語モデルの効率的な微調整に広く用いられている。
低ランク適応(LoRA)は、フェデレートラーニング(FL)における言語モデルの効率的な微調整に広く用いられている。
論文 参考訳(メタデータ) (2025-05-19T07:32:56Z) - FMDConv: Fast Multi-Attention Dynamic Convolution via Speed-Accuracy Trade-off [12.900580256269155]
本稿では,FMDConv(Fast Multi-Attention Dynamic Convolution)を提案する。
CIFAR-10、CIFAR-100、ImageNetの実験では、FMDConvはResNet-18では最大49.8%、ResNet-50では42.2%の計算コストを削減している。
論文 参考訳(メタデータ) (2025-03-21T20:23:32Z) - Gradient Normalization Provably Benefits Nonconvex SGD under Heavy-Tailed Noise [60.92029979853314]
重み付き雑音下でのグラディエントDescence(SGD)の収束を確実にする上での勾配正規化とクリッピングの役割について検討する。
我々の研究は、重尾雑音下でのSGDの勾配正規化の利点を示す最初の理論的証拠を提供する。
我々は、勾配正規化とクリッピングを取り入れた加速SGD変種を導入し、さらに重み付き雑音下での収束率を高めた。
論文 参考訳(メタデータ) (2024-10-21T22:40:42Z) - MixedNUTS: Training-Free Accuracy-Robustness Balance via Nonlinearly Mixed Classifiers [41.56951365163419]
MixedNUTSは、ロバストな分類器の出力ロジットを3つのパラメータしか持たない非線形変換で処理する訓練不要の手法である。
MixedNUTSは変換されたロジットを確率に変換し、それらを全体の出力として混合する。
CIFAR-10、CIFAR-100、ImageNetデータセットでは、MixedNUTSの精度とほぼSOTAの堅牢性を大幅に改善した。
論文 参考訳(メタデータ) (2024-02-03T21:12:36Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - Fast Convergence of DETR with Spatially Modulated Co-Attention [83.19863907905666]
本論文では,Spatially Modulated Co-Attention (SMCA) 機構を用いた検出トランスフォーマーフレームワークの簡便かつ効果的な改善手法を提案する。
提案するSMCAはデコーダの本来のコアテンション機構を置き換えることでDTRの収束速度を向上する。
拡張畳み込みベースのバックボーンを持つDETRと比較して, 完全知識のSMCAの方が優れた性能が得られる。
論文 参考訳(メタデータ) (2021-01-19T03:52:44Z) - CASTLE: Regularization via Auxiliary Causal Graph Discovery [89.74800176981842]
因果構造学習(CASTLE)の正規化を導入し,変数間の因果関係を共同学習することでニューラルネットワークの正規化を提案する。
CASTLEは因果的隣り合いを持つ因果的DAGの特徴のみを効率的に再構成する一方、再構成ベース正規化器は全ての入力特徴を過度に再構成する。
論文 参考訳(メタデータ) (2020-09-28T09:49:38Z) - ADAHESSIAN: An Adaptive Second Order Optimizer for Machine Learning [91.13797346047984]
本稿では,2次最適化アルゴリズムであるADAHESSIANを紹介する。
ADAHESSIANは、他の適応最適化手法と比較して、新しい最先端の成果を大きなマージンで達成することを示す。
論文 参考訳(メタデータ) (2020-06-01T05:00:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。