論文の概要: A Generic First-Order Algorithmic Framework for Bi-Level Programming
Beyond Lower-Level Singleton
- arxiv url: http://arxiv.org/abs/2006.04045v2
- Date: Thu, 2 Jul 2020 10:26:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 07:09:37.428974
- Title: A Generic First-Order Algorithmic Framework for Bi-Level Programming
Beyond Lower-Level Singleton
- Title(参考訳): 低レベルシングルトンを越えた双方向プログラミングのための汎用一階アルゴリズムフレームワーク
- Authors: Risheng Liu, Pan Mu, Xiaoming Yuan, Shangzhi Zeng, Jin Zhang
- Abstract要約: Bi-level Descent Aggregationは、汎用的な双方向最適化のためのフレキシブルでモジュール化されたアルゴリズムフレームワークである。
LLS条件なしでBDAの収束を証明する新しい手法を導出する。
我々の研究は、BDAが特定の一階計算モジュールの検証と互換性があることも示している。
- 参考スコア(独自算出の注目度): 49.23948907229656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, a variety of gradient-based first-order methods have been
developed to solve bi-level optimization problems for learning applications.
However, theoretical guarantees of these existing approaches heavily rely on
the simplification that for each fixed upper-level variable, the lower-level
solution must be a singleton (a.k.a., Lower-Level Singleton, LLS). In this
work, we first design a counter-example to illustrate the invalidation of such
LLS condition. Then by formulating BLPs from the view point of optimistic
bi-level and aggregating hierarchical objective information, we establish
Bi-level Descent Aggregation (BDA), a flexible and modularized algorithmic
framework for generic bi-level optimization. Theoretically, we derive a new
methodology to prove the convergence of BDA without the LLS condition. Our
investigations also demonstrate that BDA is indeed compatible to a verify of
particular first-order computation modules. Additionally, as an interesting
byproduct, we also improve these conventional first-order bi-level schemes
(under the LLS simplification). Particularly, we establish their convergences
with weaker assumptions. Extensive experiments justify our theoretical results
and demonstrate the superiority of the proposed BDA for different tasks,
including hyper-parameter optimization and meta learning.
- Abstract(参考訳): 近年,二段階最適化問題の解法として,勾配に基づく一階法が開発されている。
しかしながら、これらの既存のアプローチの理論的保証は、各固定された上層変数に対して、下層解がシングルトン(LLS)でなければならないという単純化に大きく依存している。
本研究では,まず,LSS条件の無効化を示す反例を設計する。
次に、楽観的な2レベル情報の観点からBLPを定式化し、階層的目的情報を集約することで、汎用的2レベル最適化のための柔軟でモジュール化されたアルゴリズムフレームワークであるBDA(Bilevel Descent Aggregation)を確立する。
理論的には、LSS条件なしでBDAの収束を証明する新しい手法を導出する。
我々の研究は、BDAが特定の一階計算モジュールの検証と互換性があることも示している。
さらに、興味深い副産物として、従来の一階二階スキーム(LSS単純化)も改善する。
特に、より弱い仮定で収束を確立する。
広範にわたる実験により,提案するbdaの高パラメータ最適化やメタ学習など,さまざまなタスクに対する優越性が実証された。
関連論文リスト
- A Primal-Dual-Assisted Penalty Approach to Bilevel Optimization with Coupled Constraints [66.61399765513383]
We developed a BLOCC algorithm to tackle BiLevel Optimization problems with Coupled Constraints。
2つのよく知られた実世界のアプリケーションでその効果を実証する。
論文 参考訳(メタデータ) (2024-06-14T15:59:36Z) - A Generalized Alternating Method for Bilevel Learning under the
Polyak-{\L}ojasiewicz Condition [63.66516306205932]
バイレベル最適化は、その新興機械学習分野への応用により、最近、関心を取り戻している。
最近の結果は、単純な反復に基づくイテレーションは、低レベルな目標の凸に起因する利害と一致することを示しています。
論文 参考訳(メタデータ) (2023-06-04T17:54:11Z) - Averaged Method of Multipliers for Bi-Level Optimization without
Lower-Level Strong Convexity [43.092883358935545]
単ループ二値乗算器 (sl-BAMM) を両レベル最適化 (BLO) のために提案する。
我々は, sl-BAMMのKKT定常点への非漸近収束解析を行い, 解析の利点は強い勾配有界性仮定の欠如にある。
論文 参考訳(メタデータ) (2023-02-07T11:29:05Z) - Towards Extremely Fast Bilevel Optimization with Self-governed
Convergence Guarantees [42.514612465664605]
既存の明示的かつ暗黙的なグラディエントベースのBLOを均一に理解するための単一レベル定式化を提案する。
我々の収束結果の顕著な特徴は、元の非加速GBLOバージョンと比較して、高速なBAGDCは定常性に対する非漸近収束理論を統一的に認めることである。
論文 参考訳(メタデータ) (2022-05-20T09:46:10Z) - Local Stochastic Bilevel Optimization with Momentum-Based Variance
Reduction [104.41634756395545]
具体的には、まず、決定論的勾配に基づくアルゴリズムであるFedBiOを提案する。
FedBiOの複雑性は$O(epsilon-1.5)$である。
本アルゴリズムは数値実験において,他のベースラインと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-03T16:40:22Z) - Value-Function-based Sequential Minimization for Bi-level Optimization [52.39882976848064]
勾配に基づくBi-Level Optimization (BLO)法は、現代の学習課題に広く応用されている。
機能的制約のあるBLOや悲観的なBLOなど、難解なシナリオでBLOを解くことができる勾配ベースの方法はほとんどない。
上記の問題に対処するために,BVFSM(Bi-level Value-Function-based Sequential Minimization)を提案する。
論文 参考訳(メタデータ) (2021-10-11T03:13:39Z) - Towards Gradient-based Bilevel Optimization with Non-convex Followers
and Beyond [37.89147034158937]
Bi-LevelLOcation (BLO)は、学習コミュニティとビジョンコミュニティの両方から大きな注目を集めている。
我々はAuxiliaryization and Pessimy Truncated Gradient (IAPTT-GM)という新しいBLOのクラスを提案する。
特に,最適化力学を導く補助的手法を導入し,トラルン演算を設計することにより,元のBLO LLCの信頼性の高い近似バージョンを構築する。
論文 参考訳(メタデータ) (2021-10-01T14:41:17Z) - A Generic Descent Aggregation Framework for Gradient-based Bi-level
Optimization [41.894281911990554]
両レベル学習タスクのための新しいBDA(Bi-level Descent Aggregation)フレームワークを開発した。
BDAは上層と下層の両方の階層的目的を集約する。
従来の勾配に基づくbiレベル法の収束結果を改善するための新しい証明法を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:58:12Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。