論文の概要: A Generic Descent Aggregation Framework for Gradient-based Bi-level
Optimization
- arxiv url: http://arxiv.org/abs/2102.07976v1
- Date: Tue, 16 Feb 2021 06:58:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 00:05:43.929641
- Title: A Generic Descent Aggregation Framework for Gradient-based Bi-level
Optimization
- Title(参考訳): グラデーションベース2レベル最適化のためのジェネリックDescent Aggregation Framework
- Authors: Risheng Liu, Pan Mu, Xiaoming Yuan, Shangzhi Zeng, Jin Zhang
- Abstract要約: 両レベル学習タスクのための新しいBDA(Bi-level Descent Aggregation)フレームワークを開発した。
BDAは上層と下層の両方の階層的目的を集約する。
従来の勾配に基づくbiレベル法の収束結果を改善するための新しい証明法を提案する。
- 参考スコア(独自算出の注目度): 41.894281911990554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, gradient-based methods for solving bi-level optimization
tasks have drawn a great deal of interest from the machine learning community.
However, to calculate the gradient of the best response, existing research
always relies on the singleton of the lower-level solution set (a.k.a.,
Lower-Level Singleton, LLS). In this work, by formulating bi-level models from
an optimistic bi-level viewpoint, we first establish a novel Bi-level Descent
Aggregation (BDA) framework, which aggregates hierarchical objectives of both
upper level and lower level. The flexibility of our framework benefits from the
embedded replaceable task-tailored iteration dynamics modules, thereby
capturing a wide range of bi-level learning tasks. Theoretically, we derive a
new methodology to prove the convergence of BDA framework without the LLS
restriction. Besides, the new proof recipe we propose is also engaged to
improve the convergence results of conventional gradient-based bi-level methods
under the LLS simplification. Furthermore, we employ a one-stage technique to
accelerate the back-propagation calculation in a numerical manner. Extensive
experiments justify our theoretical results and demonstrate the superiority of
the proposed algorithm for hyper-parameter optimization and meta-learning
tasks.
- Abstract(参考訳): 近年,二段階最適化タスクを解くための勾配に基づく手法が,機械学習コミュニティから大きな関心を集めている。
しかしながら、最良の応答の勾配を計算するために、既存の研究は常に低レベルの解集合のシングルトン(Low-Level Singleton, LLS)に依存している。
本研究では, 楽観的なbiレベル視点からbiレベルモデルを定式化することにより, まず, 上層と下層の両方の階層的目標を集約する新しいbiレベル降下集約(bda)フレームワークを構築した。
フレームワークの柔軟性は、組み込みのタスクカスタマイズ型イテレーションダイナミクスモジュールの利点を享受し、幅広いbiレベルの学習タスクをキャプチャします。
理論的には、LSS制限なしにBDAフレームワークの収束を証明する新しい方法論を導出する。
また,LSSの簡易化により,従来の勾配型二段階法の収束性向上を図るため,本手法を提案する。
さらに,バックプロパゲーション計算を数値的に高速化するために,ワンステージ手法を用いる。
理論結果の正当化とハイパーパラメータ最適化とメタラーニングタスクのための提案アルゴリズムの優位性の実証実験を行った。
関連論文リスト
- Provably Faster Algorithms for Bilevel Optimization via Without-Replacement Sampling [96.47086913559289]
勾配に基づくアルゴリズムはバイレベル最適化に広く用いられている。
本研究では,より高速な収束率を実現する非置換サンプリングに基づくアルゴリズムを提案する。
合成および実世界の両方のアプリケーションに対してアルゴリズムを検証する。
論文 参考訳(メタデータ) (2024-11-07T17:05:31Z) - A Primal-Dual-Assisted Penalty Approach to Bilevel Optimization with Coupled Constraints [66.61399765513383]
We developed a BLOCC algorithm to tackle BiLevel Optimization problems with Coupled Constraints。
2つのよく知られた実世界のアプリケーションでその効果を実証する。
論文 参考訳(メタデータ) (2024-06-14T15:59:36Z) - Averaged Method of Multipliers for Bi-Level Optimization without
Lower-Level Strong Convexity [43.092883358935545]
単ループ二値乗算器 (sl-BAMM) を両レベル最適化 (BLO) のために提案する。
我々は, sl-BAMMのKKT定常点への非漸近収束解析を行い, 解析の利点は強い勾配有界性仮定の欠如にある。
論文 参考訳(メタデータ) (2023-02-07T11:29:05Z) - Revisiting GANs by Best-Response Constraint: Perspective, Methodology,
and Application [49.66088514485446]
ベストレスポンス制約(Best-Response Constraint、BRC)は、ジェネレータのディスクリミネータへの依存性を明示的に定式化する一般的な学習フレームワークである。
モチベーションや定式化の相違があっても, フレキシブルBRC法により, 様々なGANが一様に改善できることが示される。
論文 参考訳(メタデータ) (2022-05-20T12:42:41Z) - Towards Extremely Fast Bilevel Optimization with Self-governed
Convergence Guarantees [42.514612465664605]
既存の明示的かつ暗黙的なグラディエントベースのBLOを均一に理解するための単一レベル定式化を提案する。
我々の収束結果の顕著な特徴は、元の非加速GBLOバージョンと比較して、高速なBAGDCは定常性に対する非漸近収束理論を統一的に認めることである。
論文 参考訳(メタデータ) (2022-05-20T09:46:10Z) - Value-Function-based Sequential Minimization for Bi-level Optimization [52.39882976848064]
勾配に基づくBi-Level Optimization (BLO)法は、現代の学習課題に広く応用されている。
機能的制約のあるBLOや悲観的なBLOなど、難解なシナリオでBLOを解くことができる勾配ベースの方法はほとんどない。
上記の問題に対処するために,BVFSM(Bi-level Value-Function-based Sequential Minimization)を提案する。
論文 参考訳(メタデータ) (2021-10-11T03:13:39Z) - A Value-Function-based Interior-point Method for Non-convex Bi-level
Optimization [38.75417864443519]
バイレベル最適化モデルは、実践的な関心を持って、幅広い複雑な学習タスクをキャプチャすることができる。
そこで我々は,下層問題における正規化値関数を上層目標にペナルティ化する,新しい内部Biレベル値に基づく内点法を提案する。
論文 参考訳(メタデータ) (2021-06-15T09:10:40Z) - A Generic First-Order Algorithmic Framework for Bi-Level Programming
Beyond Lower-Level Singleton [49.23948907229656]
Bi-level Descent Aggregationは、汎用的な双方向最適化のためのフレキシブルでモジュール化されたアルゴリズムフレームワークである。
LLS条件なしでBDAの収束を証明する新しい手法を導出する。
我々の研究は、BDAが特定の一階計算モジュールの検証と互換性があることも示している。
論文 参考訳(メタデータ) (2020-06-07T05:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。