論文の概要: Natural Hypergradient Descent: Algorithm Design, Convergence Analysis, and Parallel Implementation
- arxiv url: http://arxiv.org/abs/2602.10905v1
- Date: Wed, 11 Feb 2026 14:31:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:02.010254
- Title: Natural Hypergradient Descent: Algorithm Design, Convergence Analysis, and Parallel Implementation
- Title(参考訳): Natural Hypergradient Descent:アルゴリズム設計、収束解析、並列実装
- Authors: Deyi Kong, Zaiwei Chen, Shuzhong Zhang, Shancong Mou,
- Abstract要約: Natural Hypergradient Descent (NHGD) は二段階最適化問題の解法である。
我々の主な理論的貢献は、NHGDの高確率誤差境界とサンプル複雑性保証を確立することである。
代表的二段階学習課題に関する実証評価は、NHGDの実用的利点を示している。
- 参考スコア(独自算出の注目度): 5.754044493040163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose Natural Hypergradient Descent (NHGD), a new method for solving bilevel optimization problems. To address the computational bottleneck in hypergradient estimation--namely, the need to compute or approximate Hessian inverse--we exploit the statistical structure of the inner optimization problem and use the empirical Fisher information matrix as an asymptotically consistent surrogate for the Hessian. This design enables a parallel optimize-and-approximate framework in which the Hessian-inverse approximation is updated synchronously with the stochastic inner optimization, reusing gradient information at negligible additional cost. Our main theoretical contribution establishes high-probability error bounds and sample complexity guarantees for NHGD that match those of state-of-the-art optimize-then-approximate methods, while significantly reducing computational time overhead. Empirical evaluations on representative bilevel learning tasks further demonstrate the practical advantages of NHGD, highlighting its scalability and effectiveness in large-scale machine learning settings.
- Abstract(参考訳): 本研究では,二段階最適化問題の解法であるNatural Hypergradient Descent (NHGD)を提案する。
過次推定における計算ボトルネックに対処するため、内部最適化問題の統計的構造を利用して、ヘッセンの漸近的に一貫したサロゲートとして経験的フィッシャー情報行列を用いる。
この設計により、Hessian-inverse近似を確率的内部最適化と同期的に更新し、無視可能な追加コストで勾配情報を再利用する並列最適化・近似フレームワークが実現される。
我々の主な理論的貢献は、計算時間オーバーヘッドを大幅に削減しつつ、最先端の最適化近似法と一致するNHGDの高確率誤差境界とサンプル複雑性保証を確立することである。
代表的双方向学習タスクに関する実証的な評価は、NHGDの実用的利点をさらに証明し、大規模機械学習環境でのスケーラビリティと有効性を強調している。
関連論文リスト
- Efficient Curvature-Aware Hypergradient Approximation for Bilevel Optimization [10.939142192058004]
バイレベル最適化は多くの機械学習問題に対して強力なツールである。
過勾配の近似に曲率情報を組み込む手法を提案する。
結果の高次化に基づく新しいアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-04T13:13:29Z) - qNBO: quasi-Newton Meets Bilevel Optimization [26.0555315825777]
階層的な学習タスクにおける課題に対処するバイレベル最適化は、機械学習に大きな関心を集めている。
我々はこれらの計算課題に協調的に対処するための一般的な枠組みを導入する。
具体的には、準ニュートンアルゴリズムを利用して、逆ヘッセンベクトル積を効率的に近似しながら、下層問題の解法を高速化する。
論文 参考訳(メタデータ) (2025-02-03T05:36:45Z) - Beyond Single-Model Views for Deep Learning: Optimization versus
Generalizability of Stochastic Optimization Algorithms [13.134564730161983]
本稿では、勾配降下(SGD)とその変種に着目し、ディープラーニングの最適化に新しいアプローチを採用する。
我々はSGDとその変種がSAMのような平らなミニマと同等の性能を示すことを示した。
本研究は、トレーニング損失とホールドアウト精度の関係、およびSGDとノイズ対応変種の性能について、いくつかの重要な知見を明らかにした。
論文 参考訳(メタデータ) (2024-03-01T14:55:22Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - Momentum Accelerates the Convergence of Stochastic AUPRC Maximization [80.8226518642952]
高精度リコール曲線(AUPRC)に基づく領域の最適化について検討し,不均衡なタスクに広く利用されている。
我々は、$O (1/epsilon4)$のより優れた反復による、$epsilon$定常解を見つけるための新しい運動量法を開発する。
また,O(1/epsilon4)$と同じ複雑さを持つ適応手法の新たなファミリを設計し,実際により高速な収束を享受する。
論文 参考訳(メタデータ) (2021-07-02T16:21:52Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。