論文の概要: Averaged Method of Multipliers for Bi-Level Optimization without
Lower-Level Strong Convexity
- arxiv url: http://arxiv.org/abs/2302.03407v2
- Date: Fri, 30 Jun 2023 07:53:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 15:20:10.665450
- Title: Averaged Method of Multipliers for Bi-Level Optimization without
Lower-Level Strong Convexity
- Title(参考訳): 低レベル強い凸性のない二レベル最適化のための平均乗算器法
- Authors: Risheng Liu, Yaohua Liu, Wei Yao, Shangzhi Zeng and Jin Zhang
- Abstract要約: 単ループ二値乗算器 (sl-BAMM) を両レベル最適化 (BLO) のために提案する。
我々は, sl-BAMMのKKT定常点への非漸近収束解析を行い, 解析の利点は強い勾配有界性仮定の欠如にある。
- 参考スコア(独自算出の注目度): 43.092883358935545
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Gradient methods have become mainstream techniques for Bi-Level Optimization
(BLO) in learning fields. The validity of existing works heavily rely on either
a restrictive Lower-Level Strong Convexity (LLSC) condition or on solving a
series of approximation subproblems with high accuracy or both. In this work,
by averaging the upper and lower level objectives, we propose a single loop
Bi-level Averaged Method of Multipliers (sl-BAMM) for BLO that is simple yet
efficient for large-scale BLO and gets rid of the limited LLSC restriction. We
further provide non-asymptotic convergence analysis of sl-BAMM towards KKT
stationary points, and the comparative advantage of our analysis lies in the
absence of strong gradient boundedness assumption, which is always required by
others. Thus our theory safely captures a wider variety of applications in deep
learning, especially where the upper-level objective is quadratic w.r.t. the
lower-level variable. Experimental results demonstrate the superiority of our
method.
- Abstract(参考訳): グラデーション手法は、学習分野におけるbi-level optimization (blo) の主流技術となっている。
既存の作業の妥当性は、制限的下層強凸性(LLSC)条件か、あるいは精度の高い一連の近似サブプロブレムの解決に大きく依存している。
本研究では,上層および下層の目的を平均化することにより,大規模BLOに対して単純かつ効率的かつ限定的なLLSC制約を排除した,BLOのための単一ループBiレベル乗算器(sl-BAMM)を提案する。
さらに,sl-bammのkkt定常点への非漸近収束解析を行い,この解析の利点は,常に他者が要求する強勾配有界性仮定が存在しないことにある。
したがって、この理論は、特に上層目的が下層変数の二次 w.r.t. である深層学習における幅広い応用を安全に捉えている。
実験の結果,本手法の優位性が示された。
関連論文リスト
- Provably Faster Algorithms for Bilevel Optimization via Without-Replacement Sampling [96.47086913559289]
勾配に基づくアルゴリズムはバイレベル最適化に広く用いられている。
本研究では,より高速な収束率を実現する非置換サンプリングに基づくアルゴリズムを提案する。
合成および実世界の両方のアプリケーションに対してアルゴリズムを検証する。
論文 参考訳(メタデータ) (2024-11-07T17:05:31Z) - Constrained Bi-Level Optimization: Proximal Lagrangian Value function
Approach and Hessian-free Algorithm [8.479947546216131]
We developed a Hessian-free gradient-based algorithm-termed proximal Lagrangian Value function-based Hessian-free Bi-level Algorithm (LV-HBA)
LV-HBAは特に機械学習アプリケーションに適している。
論文 参考訳(メタデータ) (2024-01-29T13:50:56Z) - Contextual Stochastic Bilevel Optimization [50.36775806399861]
文脈情報と上層変数の期待を最小化する2レベル最適化フレームワークCSBOを導入する。
メタラーニング、パーソナライズドラーニング、エンド・ツー・エンドラーニング、Wassersteinはサイド情報(WDRO-SI)を分散的に最適化している。
論文 参考訳(メタデータ) (2023-10-27T23:24:37Z) - A Generalized Alternating Method for Bilevel Learning under the
Polyak-{\L}ojasiewicz Condition [63.66516306205932]
バイレベル最適化は、その新興機械学習分野への応用により、最近、関心を取り戻している。
最近の結果は、単純な反復に基づくイテレーションは、低レベルな目標の凸に起因する利害と一致することを示しています。
論文 参考訳(メタデータ) (2023-06-04T17:54:11Z) - Towards Extremely Fast Bilevel Optimization with Self-governed
Convergence Guarantees [42.514612465664605]
既存の明示的かつ暗黙的なグラディエントベースのBLOを均一に理解するための単一レベル定式化を提案する。
我々の収束結果の顕著な特徴は、元の非加速GBLOバージョンと比較して、高速なBAGDCは定常性に対する非漸近収束理論を統一的に認めることである。
論文 参考訳(メタデータ) (2022-05-20T09:46:10Z) - Value-Function-based Sequential Minimization for Bi-level Optimization [52.39882976848064]
勾配に基づくBi-Level Optimization (BLO)法は、現代の学習課題に広く応用されている。
機能的制約のあるBLOや悲観的なBLOなど、難解なシナリオでBLOを解くことができる勾配ベースの方法はほとんどない。
上記の問題に対処するために,BVFSM(Bi-level Value-Function-based Sequential Minimization)を提案する。
論文 参考訳(メタデータ) (2021-10-11T03:13:39Z) - A Generic Descent Aggregation Framework for Gradient-based Bi-level
Optimization [41.894281911990554]
両レベル学習タスクのための新しいBDA(Bi-level Descent Aggregation)フレームワークを開発した。
BDAは上層と下層の両方の階層的目的を集約する。
従来の勾配に基づくbiレベル法の収束結果を改善するための新しい証明法を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:58:12Z) - A Generic First-Order Algorithmic Framework for Bi-Level Programming
Beyond Lower-Level Singleton [49.23948907229656]
Bi-level Descent Aggregationは、汎用的な双方向最適化のためのフレキシブルでモジュール化されたアルゴリズムフレームワークである。
LLS条件なしでBDAの収束を証明する新しい手法を導出する。
我々の研究は、BDAが特定の一階計算モジュールの検証と互換性があることも示している。
論文 参考訳(メタデータ) (2020-06-07T05:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。