論文の概要: Global Optimization: A Machine Learning Approach
- arxiv url: http://arxiv.org/abs/2311.01742v1
- Date: Fri, 3 Nov 2023 06:33:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 14:59:09.259650
- Title: Global Optimization: A Machine Learning Approach
- Title(参考訳): グローバル最適化: 機械学習アプローチ
- Authors: Dimitris Bertsimas, Georgios Margaritis
- Abstract要約: Bertsimas と Ozturk (2023) は、ブラックボックスのグローバル最適化問題を解決する方法として OCTHaGOn を提案した。
我々は、他のMIO表現可能なMLモデルを用いて、元の問題を近似することで、このアプローチの拡張を提供する。
多くの場合において、ソリューションの実現可能性と最適性の改善を示す。
- 参考スコア(独自算出の注目度): 7.052596485478637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many approaches for addressing Global Optimization problems typically rely on
relaxations of nonlinear constraints over specific mathematical primitives.
This is restricting in applications with constraints that are black-box,
implicit or consist of more general primitives. Trying to address such
limitations, Bertsimas and Ozturk (2023) proposed OCTHaGOn as a way of solving
black-box global optimization problems by approximating the nonlinear
constraints using hyperplane-based Decision-Trees and then using those trees to
construct a unified mixed integer optimization (MIO) approximation of the
original problem. We provide extensions to this approach, by (i) approximating
the original problem using other MIO-representable ML models besides Decision
Trees, such as Gradient Boosted Trees, Multi Layer Perceptrons and Suport
Vector Machines, (ii) proposing adaptive sampling procedures for more accurate
machine learning-based constraint approximations, (iii) utilizing robust
optimization to account for the uncertainty of the sample-dependent training of
the ML models, and (iv) leveraging a family of relaxations to address the
infeasibilities of the final MIO approximation. We then test the enhanced
framework in 81 Global Optimization instances. We show improvements in solution
feasibility and optimality in the majority of instances. We also compare
against BARON, showing improved optimality gaps or solution times in 11
instances.
- Abstract(参考訳): グローバル最適化問題に対処する多くのアプローチは、通常、特定の数学的プリミティブに対する非線形制約の緩和に依存する。
これはブラックボックス、暗黙的、またはより一般的なプリミティブからなる制約のあるアプリケーションで制限される。
そのような制限に対処するため、Bertsimas と Ozturk (2023) は、超平面ベースのDecision-Trees を用いて非線形制約を近似し、それらの木を用いて元の問題を統一混合整数最適化 (MIO) 近似を構築することで、ブラックボックスのグローバルな最適化問題を解決する方法として OCTHaGOn を提案した。
私たちはこのアプローチの拡張を提供しています。
(i)勾配ブーストツリー、多層パーセプトロン、ポートベクターマシンなどの決定木以外のmio表現可能なmlモデルを用いて元の問題を近似する。
(ii)より正確な機械学習に基づく制約近似のための適応サンプリング手順の提案
(iii)機械学習モデルのサンプル依存学習の不確実性を考慮したロバスト最適化の活用、及び
(iv)最後のmio近似の非可逆性に対処するために緩和の族を利用する。
次に、81のグローバル最適化インスタンスで拡張フレームワークをテストする。
大部分のインスタンスでは、ソリューション実現性と最適性が改善されている。
また,バロンと比較し,11例で最適性ギャップや解時間の改善を示した。
関連論文リスト
- End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Symmetric Tensor Networks for Generative Modeling and Constrained
Combinatorial Optimization [72.41480594026815]
ポートフォリオ最適化からロジスティクスに至るまで、制約付き最適化問題は業界に多い。
これらの問題の解決における主要な障害の1つは、有効な検索空間を制限する非自明なハード制約の存在である。
本研究では、Ax=bという形の任意の整数値等式制約をU(1)対称ネットワーク(TN)に直接エンコードし、それらの適用性を量子に着想を得た生成モデルとして活用する。
論文 参考訳(メタデータ) (2022-11-16T18:59:54Z) - Polynomial Optimization: Enhancing RLT relaxations with Conic
Constraints [0.0]
円錐最適化は、非スケール問題に対するトラクタブルで保証されたアルゴリズムを設計するための強力なツールとして登場した。
最適化問題に対するRLT緩和の強化について,9種類の制約を加えて検討する。
我々は、これらの変種とその性能を、互いに、そして標準RCT緩和に関してどのように設計するかを示す。
論文 参考訳(メタデータ) (2022-08-11T02:13:04Z) - Tree ensemble kernels for Bayesian optimization with known constraints
over mixed-feature spaces [54.58348769621782]
木アンサンブルはアルゴリズムチューニングやニューラルアーキテクチャ検索といったブラックボックス最適化タスクに適している。
ブラックボックス最適化にツリーアンサンブルを使うことの2つのよく知られた課題は、探索のためのモデル不確実性を効果的に定量化し、また、 (ii) ピースワイドな定値取得関数を最適化することである。
我々のフレームワークは、連続/離散的機能に対する非拘束ブラックボックス最適化のための最先端の手法と同様に、混合変数の特徴空間と既知の入力制約を組み合わせた問題の競合する手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-02T16:59:37Z) - Predict and Optimize: Through the Lens of Learning to Rank [9.434400627011108]
ノイズコントラスト推定は、ソリューションキャッシュのランク付けを学習する場合とみなすことができる。
また、最適化問題を解くことなく、閉じた形で区別できるペアワイズとリストワイズランキングの損失関数も開発する。
論文 参考訳(メタデータ) (2021-12-07T10:11:44Z) - A Surrogate Objective Framework for Prediction+Optimization with Soft
Constraints [29.962390392493507]
SPO+や直接最適化のような決定に焦点をあてた予測手法が、このギャップを埋めるために提案されている。
本稿では,実世界の線形および半定値負の二次計画問題に対して,解析的に微分可能な主観的フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-22T17:09:57Z) - Divide and Learn: A Divide and Conquer Approach for Predict+Optimize [50.03608569227359]
予測+最適化問題は、予測係数を使用する最適化プロブレムと、確率係数の機械学習を組み合わせる。
本稿では, 予測係数を1次線形関数として, 最適化問題の損失を直接表現する方法を示す。
本稿では,この制約を伴わずに最適化問題に対処し,最適化損失を用いてその係数を予測する新しい分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-04T00:26:56Z) - Mixed-Projection Conic Optimization: A New Paradigm for Modeling Rank
Constraints [3.179831861897336]
低ランク最適化問題を証明可能な最適性に解決するためのフレームワークを提供する。
我々のフレームワークは、ラウンドリングや局所探索技術を通じて、ほぼ最適のソリューションを提供する。
論文 参考訳(メタデータ) (2020-09-22T08:59:06Z) - Extracting Optimal Solution Manifolds using Constrained Neural
Optimization [6.800113407368289]
制約付き最適化解アルゴリズムは点ベース解に制限される。
最適集合を近似として抽出する手法を提案する。
論文 参考訳(メタデータ) (2020-09-13T15:37:44Z) - Generalized and Scalable Optimal Sparse Decision Trees [56.35541305670828]
様々な目的に対して最適な決定木を生成する手法を提案する。
また,連続変数が存在する場合に最適な結果が得られるスケーラブルなアルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-06-15T19:00:11Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。