論文の概要: Faster Discrete Convex Function Minimization with Predictions: The
M-Convex Case
- arxiv url: http://arxiv.org/abs/2306.05865v1
- Date: Fri, 9 Jun 2023 12:58:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-12 13:18:49.923338
- Title: Faster Discrete Convex Function Minimization with Predictions: The
M-Convex Case
- Title(参考訳): より高速な離散凸関数最小化と予測:M凸の場合
- Authors: Taihei Oki, Shinsaku Sakaue
- Abstract要約: 予測を使うことで、最良の結果の時間を改善することができ、予測よりも低い結果を超える可能性がある。
我々のフレームワークは特に、研究応用に現れるラミナ最小化凸(lamina minimization convex)と呼ばれる重要なものに有効である。
- 参考スコア(独自算出の注目度): 15.191184049312467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have seen a growing interest in accelerating optimization
algorithms with machine-learned predictions. Sakaue and Oki (NeurIPS 2022) have
developed a general framework that warm-starts the L-convex function
minimization method with predictions, revealing the idea's usefulness for
various discrete optimization problems. In this paper, we present a framework
for using predictions to accelerate M-convex function minimization, thus
complementing previous research and extending the range of discrete
optimization algorithms that can benefit from predictions. Our framework is
particularly effective for an important subclass called laminar convex
minimization, which appears in many operations research applications. Our
methods can improve time complexity bounds upon the best worst-case results by
using predictions and even have potential to go beyond a lower-bound result.
- Abstract(参考訳): 近年,機械学習予測による最適化アルゴリズムの高速化に注目が集まっている。
Sakaue と Oki (NeurIPS 2022) は,L-convex 関数最小化法を予測で温め,様々な離散最適化問題に対するアイデアの有用性を明らかにした。
本稿では,m-凸関数の最小化を高速化するために予測を用いる枠組みを提案し,これまでの研究を補完し,予測の恩恵を受ける離散最適化アルゴリズムの範囲を広げる。
私たちのフレームワークは、多くのオペレーション研究アプリケーションで見られるlaminar convex minimizationと呼ばれる重要なサブクラスに特に有効です。
提案手法は, 予測値を用いて, 最高の最悪の結果に縛られる時間的複雑性を改善でき, また, 下位値を超える可能性も有する。
関連論文リスト
- Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - Fast Pareto Optimization Using Sliding Window Selection [13.264683014487376]
本稿では,最近導入されたアルゴリズムに対してスライディングウインドウの高速化手法を提案する。
我々は,本手法が実行環境に悪影響を及ぼす重要な要因として個体群サイズを排除していることを証明した。
論文 参考訳(メタデータ) (2023-05-11T23:23:49Z) - Smoothed Analysis of Sequential Probability Assignment [16.090378928208885]
本稿では,情報理論的に最適であるminmaxレートと,最大極大推定器オラクルを含むアルゴリズム削減の枠組みについて検討する。
提案手法は,スムーズな逆数に対する逐次確率割当のためのミニマックスレートから,トランスダクティブ学習のためのミニマックスレートへの汎用的な削減を実現する。
論文 参考訳(メタデータ) (2023-03-08T19:25:57Z) - Efficient and Differentiable Conformal Prediction with General Function
Classes [96.74055810115456]
本稿では,複数の学習可能なパラメータに対する共形予測の一般化を提案する。
本研究は, クラス内において, ほぼ有効な人口被覆率, ほぼ最適効率を実現していることを示す。
実験の結果,提案アルゴリズムは有効な予測セットを学習し,効率を著しく向上できることがわかった。
論文 参考訳(メタデータ) (2022-02-22T18:37:23Z) - Minimax Optimization with Smooth Algorithmic Adversaries [59.47122537182611]
対戦相手が展開するスムーズなアルゴリズムに対して,Min-playerの新しいアルゴリズムを提案する。
本アルゴリズムは,制限周期のない単調進行を保証し,適切な勾配上昇数を求める。
論文 参考訳(メタデータ) (2021-06-02T22:03:36Z) - Recent Theoretical Advances in Non-Convex Optimization [56.88981258425256]
近年、深層ネットワークにおける非最適化アルゴリズムの解析やデータ問題への関心が高まっており、非最適化のための理論的最適化アルゴリズムの最近の結果の概要を概説する。
論文 参考訳(メタデータ) (2020-12-11T08:28:51Z) - Divide and Learn: A Divide and Conquer Approach for Predict+Optimize [50.03608569227359]
予測+最適化問題は、予測係数を使用する最適化プロブレムと、確率係数の機械学習を組み合わせる。
本稿では, 予測係数を1次線形関数として, 最適化問題の損失を直接表現する方法を示す。
本稿では,この制約を伴わずに最適化問題に対処し,最適化損失を用いてその係数を予測する新しい分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-04T00:26:56Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。