論文の概要: ES-Based Jacobian Enables Faster Bilevel Optimization
- arxiv url: http://arxiv.org/abs/2110.07004v1
- Date: Wed, 13 Oct 2021 19:36:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 14:04:18.681970
- Title: ES-Based Jacobian Enables Faster Bilevel Optimization
- Title(参考訳): esベースのjacobianが2レベル最適化を高速化
- Authors: Daouda Sow, Kaiyi Ji, Yingbin Liang
- Abstract要約: バイレベル最適化(BO)は多くの現代の機械学習問題を解決する強力なツールとして生まれてきた。
既存の勾配法では、ヤコビアンあるいはヘッセンベクトル計算による二階微分近似が必要となる。
本稿では,進化戦略(ES)に基づく新しいBOアルゴリズムを提案し,BOの過勾配における応答ヤコビ行列を近似する。
- 参考スコア(独自算出の注目度): 53.675623215542515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bilevel optimization (BO) has arisen as a powerful tool for solving many
modern machine learning problems. However, due to the nested structure of BO,
existing gradient-based methods require second-order derivative approximations
via Jacobian- or/and Hessian-vector computations, which can be very costly in
practice, especially with large neural network models. In this work, we propose
a novel BO algorithm, which adopts Evolution Strategies (ES) based method to
approximate the response Jacobian matrix in the hypergradient of BO, and hence
fully eliminates all second-order computations. We call our algorithm as ESJ
(which stands for the ES-based Jacobian method) and further extend it to the
stochastic setting as ESJ-S. Theoretically, we characterize the convergence
guarantee and computational complexity for our algorithms. Experimentally, we
demonstrate the superiority of our proposed algorithms compared to the state of
the art methods on various bilevel problems. Particularly, in our experiment in
the few-shot meta-learning problem, we meta-learn the twelve millions
parameters of a ResNet-12 network over the miniImageNet dataset, which
evidently demonstrates the scalability of our ES-based bilevel approach and its
feasibility in the large-scale setting.
- Abstract(参考訳): bilevel optimization (bo) は多くの現代の機械学習問題を解決する強力なツールとして生まれてきた。
しかし、BOのネスト構造のため、既存の勾配に基づく手法では、ヤコビアンまたはヘシアンベクトル計算による2階微分近似が必要となる。
本研究では,進化戦略(ES)に基づく新しいBOアルゴリズムを提案し,BOの過次性における応答ヤコビ行列を近似し,従って2次計算を完全に除去する。
我々はこのアルゴリズムをESJ(es-based Jacobian methodの略)と呼び、ESJ-Sとして確率的な設定に拡張する。
理論的には,アルゴリズムの収束保証と計算複雑性を特徴付ける。
実験により,提案アルゴリズムの諸問題に対する技術手法の現状と比較し,その優位性を実証した。
特に,数ショットのメタラーニング問題における実験では,ミニイメージネットデータセット上でResNet-12ネットワークの1200万のパラメータをメタラーニングし,ESベースのバイレベルアプローチのスケーラビリティと大規模環境における実現可能性を示す。
関連論文リスト
- Provably Faster Algorithms for Bilevel Optimization via Without-Replacement Sampling [96.47086913559289]
勾配に基づくアルゴリズムはバイレベル最適化に広く用いられている。
本研究では,より高速な収束率を実現する非置換サンプリングに基づくアルゴリズムを提案する。
合成および実世界の両方のアプリケーションに対してアルゴリズムを検証する。
論文 参考訳(メタデータ) (2024-11-07T17:05:31Z) - Ensemble-based Hybrid Optimization of Bayesian Neural Networks and
Traditional Machine Learning Algorithms [0.0]
本研究では、ランダムフォレスト(RF)、グラディエントブースティング(GB)、サポートベクトルマシン(SVM)といった従来の機械学習アルゴリズムと相乗的に統合することにより、ベイズニューラルネットワーク(BNN)を最適化する新しい手法を提案する。
特徴積分は、ヘッセン行列の定常性や正定性を含む最適性に対する二階条件を強調することによってこれらの結果を固化する。
全体として、アンサンブル法は堅牢でアルゴリズム的に最適化されたアプローチとして際立っている。
論文 参考訳(メタデータ) (2023-10-09T06:59:17Z) - Decentralized Stochastic Bilevel Optimization with Improved
per-Iteration Complexity [17.870370505179014]
本稿では,一階オラクル,ヘッセンベクター,ヤコビアンベクターのみを必要とする分散二段階最適化(DSBO)アルゴリズムを提案する。
このアルゴリズムの利点は、全ヘッセン行列とヤコビ行列を推定する必要がなく、それによってイット毎の複雑性が向上するということである。
論文 参考訳(メタデータ) (2022-10-23T20:06:05Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - On the Convergence of Distributed Stochastic Bilevel Optimization
Algorithms over a Network [55.56019538079826]
バイレベル最適化は、幅広い機械学習モデルに適用されている。
既存のアルゴリズムの多くは、分散データを扱うことができないように、シングルマシンの設定を制限している。
そこで我々は,勾配追跡通信機構と2つの異なる勾配に基づく分散二段階最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-30T05:29:52Z) - Bilevel Optimization for Machine Learning: Algorithm Design and
Convergence Analysis [12.680169619392695]
この論文は、2レベル最適化アルゴリズムに対する総合収束率解析を提供する。
問題に基づく定式化では、AIDおよびITDに基づく2レベルアルゴリズムの収束率解析を行う。
そこで我々は,ゆるやかな仮定で形状収束解析を行う加速バイレベルアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-31T22:05:47Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - SHINE: SHaring the INverse Estimate from the forward pass for bi-level
optimization and implicit models [15.541264326378366]
近年,深層ニューラルネットワークの深度を高める手法として暗黙の深度学習が登場している。
トレーニングは双レベル問題として実行され、その計算複雑性は巨大なヤコビ行列の反復反転によって部分的に駆動される。
本稿では,この計算ボトルネックに対処する新たな手法を提案する。
論文 参考訳(メタデータ) (2021-06-01T15:07:34Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。