論文の概要: Refined bounds for algorithm configuration: The knife-edge of dual class
approximability
- arxiv url: http://arxiv.org/abs/2006.11827v2
- Date: Thu, 24 Dec 2020 16:47:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 11:58:27.863952
- Title: Refined bounds for algorithm configuration: The knife-edge of dual class
approximability
- Title(参考訳): アルゴリズム構成のための精細境界:双対クラス近似のナイフエッジ
- Authors: Maria-Florina Balcan, Tuomas Sandholm, Ellen Vitercik
- Abstract要約: トレーニングセットが、トレーニングセット上でのパラメータの平均メトリックのパフォーマンスが、予想される将来的なパフォーマンスに最も近いことを保証するために、どの程度の規模が必要かを調査する。
この近似が L-無限ノルムの下で成り立つなら、強いサンプル複雑性境界を与えることができる。
我々は、コンピュータ科学において最も強力なツールの一つである整数プログラミングの文脈において、我々の限界を実証的に評価する。
- 参考スコア(独自算出の注目度): 94.83809668933021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automating algorithm configuration is growing increasingly necessary as
algorithms come with more and more tunable parameters. It is common to tune
parameters using machine learning, optimizing performance metrics such as
runtime and solution quality. The training set consists of problem instances
from the specific domain at hand. We investigate a fundamental question about
these techniques: how large should the training set be to ensure that a
parameter's average empirical performance over the training set is close to its
expected, future performance? We answer this question for algorithm
configuration problems that exhibit a widely-applicable structure: the
algorithm's performance as a function of its parameters can be approximated by
a "simple" function. We show that if this approximation holds under the
L-infinity norm, we can provide strong sample complexity bounds. On the flip
side, if the approximation holds only under the L-p norm for p smaller than
infinity, it is not possible to provide meaningful sample complexity bounds in
the worst case. We empirically evaluate our bounds in the context of integer
programming, one of the most powerful tools in computer science. Via
experiments, we obtain sample complexity bounds that are up to 700 times
smaller than the previously best-known bounds.
- Abstract(参考訳): アルゴリズムがよりチューニング可能なパラメータを持つようになるにつれて、アルゴリズム構成の自動化がますます必要になりつつある。
機械学習を使ってパラメータをチューニングし、ランタイムやソリューションの品質といったパフォーマンスメトリクスを最適化することが一般的です。
トレーニングセットは、手元の特定のドメインからの問題インスタンスで構成される。
トレーニングセットは、トレーニングセットに対するパラメータの平均的な経験的パフォーマンスが、予想される将来的なパフォーマンスに近づいていることを保証するため、どの程度の大きさでなければならないか?
パラメータの関数としてのアルゴリズムの性能は、"単純な"関数によって近似することができる。
この近似が L-無限ノルムの下で成り立つなら、強いサンプル複雑性境界を与えることができる。
一方、近似が無限小よりも小さい p に対して L-p ノルムの下でのみ成り立つ場合、最悪の場合において有意義なサンプル複雑性境界を与えることはできない。
我々は、コンピュータ科学において最も強力なツールの一つである整数プログラミングの文脈における境界を実証的に評価する。
実験により、これまでよく知られた境界よりも最大700倍小さいサンプル複雑性境界を得る。
関連論文リスト
- A General Online Algorithm for Optimizing Complex Performance Metrics [5.726378955570775]
我々は,バイナリ,マルチクラス,マルチラベルの分類問題において,様々な複雑なパフォーマンス指標を用いて,直接的に使用可能な汎用オンラインアルゴリズムを導入,分析する。
アルゴリズムの更新と予測のルールは、過去のデータを保存することなく、非常にシンプルで計算的に効率的である。
論文 参考訳(メタデータ) (2024-06-20T21:24:47Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - Optimal Algorithms for Stochastic Complementary Composite Minimization [55.26935605535377]
統計学と機械学習における正規化技術に触発され,補完的な複合化の最小化について検討した。
予測と高い確率で、新しい過剰なリスク境界を提供する。
我々のアルゴリズムはほぼ最適であり、このクラスの問題に対して、新しいより低い複雑性境界によって証明する。
論文 参考訳(メタデータ) (2022-11-03T12:40:24Z) - Best of Both Worlds: Practical and Theoretically Optimal Submodular Maximization in Parallel [17.462968952951883]
主アルゴリズムは、独立した関心を持つ可能性のある2つのコンポーネントから組み立てられる。
LINEARSEQの変種は、文献のどのアルゴリズムよりも小さい$O(log(n))$の適応複雑性を持つ。
論文 参考訳(メタデータ) (2021-11-15T17:10:40Z) - Practical, Provably-Correct Interactive Learning in the Realizable
Setting: The Power of True Believers [12.09273192079783]
我々は、対話型学習を実現可能な設定で検討し、最適な腕の識別からアクティブな分類に至るまでの問題に対処する一般的な枠組みを開発する。
我々は,最小限の値と対数係数とを一致させる,計算効率のよい新しいアルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-11-09T02:33:36Z) - Adaptive Sampling for Fast Constrained Maximization of Submodular
Function [8.619758302080891]
非モノトーンサブモジュラに対する多対数適応性を有するアルゴリズムを一般側制約下で開発する。
本アルゴリズムは,$p$-system 側制約下での非単調部分モジュラ関数の最大化に適している。
論文 参考訳(メタデータ) (2021-02-12T12:38:03Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - An Empirical Process Approach to the Union Bound: Practical Algorithms
for Combinatorial and Linear Bandits [34.06611065493047]
本稿では、信頼度と予算設定の固定化において、純探索線形帯域問題に対する近似アルゴリズムを提案する。
サンプルの複雑性がインスタンスの幾何でスケールし、アームの数に縛られた明示的な結合を避けるアルゴリズムを提供する。
また,固定予算設定における線形帯域幅に対する最初のアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-21T00:56:33Z) - Exploiting Higher Order Smoothness in Derivative-free Optimization and
Continuous Bandits [99.70167985955352]
強凸関数のゼロ次最適化問題について検討する。
予測勾配降下アルゴリズムのランダム化近似を考察する。
その結果,0次アルゴリズムはサンプルの複雑性や問題パラメータの点でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-14T10:42:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。