論文の概要: Relax and penalize: a new bilevel approach to mixed-binary
hyperparameter optimization
- arxiv url: http://arxiv.org/abs/2308.10711v1
- Date: Mon, 21 Aug 2023 13:24:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 13:30:40.195448
- Title: Relax and penalize: a new bilevel approach to mixed-binary
hyperparameter optimization
- Title(参考訳): relax and penalize:mixed-binary hyperparameter optimizationに対する新しいbilevelアプローチ
- Authors: Marianna de Santis (UNIROMA), Jordan Frecon (LHC), Francesco Rinaldi
(Unipd), Saverio Salzo (DIAG UNIROMA), Martin Schmidt
- Abstract要約: 我々は混合二項ハイパーパラメータの挑戦的な最適化に取り組む。
混合バイナリソリューションの提供を保証するアルゴリズムフレームワークを提案する。
我々は、特定の機械学習問題に対するアプローチの性能を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, bilevel approaches have become very popular to efficiently
estimate high-dimensional hyperparameters of machine learning models. However,
to date, binary parameters are handled by continuous relaxation and rounding
strategies, which could lead to inconsistent solutions. In this context, we
tackle the challenging optimization of mixed-binary hyperparameters by
resorting to an equivalent continuous bilevel reformulation based on an
appropriate penalty term. We propose an algorithmic framework that, under
suitable assumptions, is guaranteed to provide mixed-binary solutions.
Moreover, the generality of the method allows to safely use existing continuous
bilevel solvers within the proposed framework. We evaluate the performance of
our approach for a specific machine learning problem, i.e., the estimation of
the group-sparsity structure in regression problems. Reported results clearly
show that our method outperforms state-of-the-art approaches based on
relaxation and rounding
- Abstract(参考訳): 近年,機械学習モデルの高次元ハイパーパラメータを効率的に推定する手法が普及している。
しかし、これまでバイナリパラメータは、連続的な緩和と丸め戦略によって処理されており、一貫性のないソリューションにつながる可能性がある。
この文脈において,我々は,適切なペナルティ項に基づく等価な連続二段階の再構成を用いて,混合双項ハイパーパラメータの最適化に挑戦する。
適切な仮定の下では、混合バイナリソリューションを提供することが保証されるアルゴリズムフレームワークを提案する。
さらに,提案手法の一般化により,提案フレームワーク内の既存の連続二段階解法を安全に利用できる。
我々は,回帰問題におけるグループスパーシティー構造の推定という,特定の機械学習問題に対するアプローチの性能を評価する。
報告された結果から,本手法は緩和と丸めに基づく最先端手法よりも優れていることが示された。
関連論文リスト
- Towards Differentiable Multilevel Optimization: A Gradient-Based Approach [1.6114012813668932]
本稿では,多レベル最適化のための新しい勾配に基づくアプローチを提案する。
本手法は解の精度と収束速度を両立させながら計算複雑性を著しく低減する。
私たちの知る限りでは、これは暗黙の微分の一般的なバージョンを提供する最初のアルゴリズムの1つである。
論文 参考訳(メタデータ) (2024-10-15T06:17:59Z) - A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Contextual Stochastic Bilevel Optimization [50.36775806399861]
文脈情報と上層変数の期待を最小化する2レベル最適化フレームワークCSBOを導入する。
メタラーニング、パーソナライズドラーニング、エンド・ツー・エンドラーニング、Wassersteinはサイド情報(WDRO-SI)を分散的に最適化している。
論文 参考訳(メタデータ) (2023-10-27T23:24:37Z) - Analyzing Inexact Hypergradients for Bilevel Learning [0.09669369645900441]
暗黙の関数定理と自動微分/バックプロパゲーションに基づいて既存の手法を一般化する過次計算のための統一的なフレームワークを提案する。
計算結果から,高次アルゴリズムの選択は低次解法の選択と同等に重要であることが明らかとなった。
論文 参考訳(メタデータ) (2023-01-11T23:54:27Z) - Algorithm for Constrained Markov Decision Process with Linear
Convergence [55.41644538483948]
エージェントは、そのコストに対する複数の制約により、期待される累積割引報酬を最大化することを目的としている。
エントロピー正規化ポリシーとベイダの二重化という2つの要素を統合した新しい双対アプローチが提案されている。
提案手法は(線形速度で)大域的最適値に収束することが示されている。
論文 参考訳(メタデータ) (2022-06-03T16:26:38Z) - Enhanced Bilevel Optimization via Bregman Distance [104.96004056928474]
本稿では,Bregman Bregman関数に基づく二段階最適化手法を提案する。
また,分散還元法によるSBiO-BreD法(ASBiO-BreD)の高速化版も提案する。
論文 参考訳(メタデータ) (2021-07-26T16:18:43Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Convergence Properties of Stochastic Hypergradients [38.64355126221992]
大規模データセットにおける低レベルの問題が経験的リスクである場合に重要となる過勾配の近似スキームについて検討する。
本研究では,理論解析を支援する数値実験を行い,実際にハイパーグラディエントを用いることの利点を示す。
論文 参考訳(メタデータ) (2020-11-13T20:50:36Z) - On the implementation of a global optimization method for mixed-variable
problems [0.30458514384586394]
このアルゴリズムは、グットマンの放射基底関数と、レジスとシューメーカーの計量応答面法に基づいている。
これら2つのアルゴリズムの一般化と改良を目的としたいくつかの修正を提案する。
論文 参考訳(メタデータ) (2020-09-04T13:36:56Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z) - Optimizing generalization on the train set: a novel gradient-based
framework to train parameters and hyperparameters simultaneously [0.0]
一般化は機械学習における中心的な問題である。
本稿では,新たなリスク尺度に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T18:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。