論文の概要: Pre-trained Mixed Integer Optimization through Multi-variable
Cardinality Branching
- arxiv url: http://arxiv.org/abs/2305.12352v1
- Date: Sun, 21 May 2023 05:11:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 21:13:53.138378
- Title: Pre-trained Mixed Integer Optimization through Multi-variable
Cardinality Branching
- Title(参考訳): 多変数心機能分岐による混合整数の事前学習
- Authors: Yanguang Chen, Wenzhi Gao, Dongdong Ge, Yinyu Ye
- Abstract要約: 事前学習機械学習モデル(PreMIO)を用いたオンライン混合最適化の高速化手法を提案する。
PreMIOの鍵となるコンポーネントは、データ駆動超平面で実現可能な領域を分割する多変数の濃度分岐手順である。
従来のベンチマークデータセットと実環境インスタンスの両方で数値実験を行い,その性能を最先端のMIPソルバに適用することによって,PreMIOの性能を検証した。
- 参考スコア(独自算出の注目度): 10.36402837385451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new method to accelerate online Mixed Integer Optimization with
Pre-trained machine learning models (PreMIO). The key component of PreMIO is a
multi-variable cardinality branching procedure that splits the feasible region
with data-driven hyperplanes, which can be easily integrated into any MIP
solver with two lines of code. Moreover, we incorporate learning theory and
concentration inequalities to develop a straightforward and interpretable
hyper-parameter selection strategy for our method. We test the performance of
PreMIO by applying it to state-of-the-art MIP solvers and running numerical
experiments on both classical OR benchmark datasets and real-life instances.
The results validate the effectiveness of our proposed method.
- Abstract(参考訳): プレトレーニング機械学習モデル(PreMIO)を用いたオンラインMixed Integer Optimizationの高速化手法を提案する。
PreMIOの鍵となるコンポーネントは、データ駆動型超平面で実現可能な領域を分割する多変数の濃度分岐手順であり、2行のコードで任意のMIPソルバに容易に統合できる。
さらに, 学習理論と濃度不等式を組み込んで, 直接的かつ解釈可能なハイパーパラメータ選択戦略を考案する。
従来のベンチマークデータセットと実環境インスタンスの両方で数値実験を行い、最先端のMIP解法に適用することでPreMIOの性能を検証した。
その結果,提案手法の有効性が検証された。
関連論文リスト
- A Meta-Learning Based Precoder Optimization Framework for Rate-Splitting
Multiple Access [53.191806757701215]
本稿では,トランスミッタ(CSIT)における部分チャネル状態情報を持つRSMAプリコーダを直接最適化するために,メタラーニングに基づく事前コーダ最適化フレームワークを提案する。
コンパクトニューラルネットワークのオーバーフィッティングを利用して、ASR(Average Sum-Rate)表現を最大化することにより、実行時間を最小化しながら、他のトレーニングデータの必要性を効果的に回避する。
数値的な結果から,メタラーニングに基づく解は,中規模シナリオにおける従来のプリコーダ最適化に類似したASR性能を実現し,大規模シナリオにおける準最適低複雑性プリコーダアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-07-17T20:31:41Z) - A real world test of Portfolio Optimization with Quantum Annealing [0.0]
本稿では,QUBO(Quardratic Unconstrained Binary Optimization)の定式化によるポートフォリオ最適化実験について述べる。
正確な古典的戦略によって得られる大域的最適値と整合して満足な結果が得られる。
最適化にはQUBOパラメータのチューニングが不可欠であるため,自動チューニングが可能なハイブリッド手法について検討する。
論文 参考訳(メタデータ) (2023-03-22T14:38:13Z) - Mixed Semi-Supervised Generalized-Linear-Regression with applications to
Deep-Learning and Interpolators [7.72340900466298]
本稿では、ラベルのないデータを用いて、半教師付き学習法(SSL)を設計する手法を提案する。
それぞれに$alpha$という混合パラメータが含まれており、ラベルのないデータに与えられる重みを制御する。
我々は,標準教師付きモデルと比較して,大幅な改善を実現するための方法論の有効性を実証する。
論文 参考訳(メタデータ) (2023-02-19T09:55:18Z) - Context-Aware Ensemble Learning for Time Series [11.716677452529114]
本稿では,ベースモデルの特徴ベクトルの結合である特徴のスーパーセットを用いて,ベースモデル予測を効果的に組み合わせたメタ学習手法を提案する。
我々のモデルは、ベースモデルの予測を機械学習アルゴリズムの入力として使用するのではなく、問題の状態に基づいて各時点における最良の組み合わせを選択する。
論文 参考訳(メタデータ) (2022-11-30T10:36:13Z) - Scalable PAC-Bayesian Meta-Learning via the PAC-Optimal Hyper-Posterior:
From Theory to Practice [54.03076395748459]
メタラーニング文学の中心的な疑問は、目に見えないタスクへの一般化を保証するために、いかに正規化するかである。
本稿では,Rothfussらによって最初に導かれたメタラーニングの一般化について述べる。
PAC-Bayesian per-task 学習境界におけるメタラーニングの条件と程度について,理論的解析および実証事例研究を行った。
論文 参考訳(メタデータ) (2022-11-14T08:51:04Z) - Making Linear MDPs Practical via Contrastive Representation Learning [101.75885788118131]
マルコフ決定過程(MDP)における次元性の呪いに、低ランク表現を利用することで対処することが一般的である。
本稿では,効率的な表現学習を可能にしつつ,正規化を自動的に保証する線形MDPの代替的定義について考察する。
いくつかのベンチマークにおいて、既存の最先端モデルベースおよびモデルフリーアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-14T18:18:02Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Towards Learning Universal Hyperparameter Optimizers with Transformers [57.35920571605559]
我々は,テキストベースのトランスフォーマーHPOフレームワークであるOptFormerを紹介した。
実験の結果,OptFormerは少なくとも7種類のHPOアルゴリズムを模倣できることがわかった。
論文 参考訳(メタデータ) (2022-05-26T12:51:32Z) - Consolidated learning -- a domain-specific model-free optimization
strategy with examples for XGBoost and MIMIC-IV [4.370097023410272]
本稿では,統合学習と呼ばれるチューニング問題の新たな定式化を提案する。
このような設定では、単一のタスクをチューニングするよりも、全体の最適化時間に関心があります。
我々は,XGBoostアルゴリズムの実証研究とMIMIC-IV医療データベースから抽出した予測タスクの収集を通じて,このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-01-27T21:38:53Z) - Predictive machine learning for prescriptive applications: a coupled
training-validating approach [77.34726150561087]
規範的応用のための予測機械学習モデルをトレーニングするための新しい手法を提案する。
このアプローチは、標準的なトレーニング検証テストスキームの検証ステップを微調整することに基づいている。
合成データを用いたいくつかの実験は、決定論的モデルと実モデルの両方において処方料コストを削減できる有望な結果を示した。
論文 参考訳(メタデータ) (2021-10-22T15:03:20Z) - Adaptive Matching of Kernel Means [10.377914682543903]
カーネル平均マッチング(KMM)は,カーネルマシンの知識発見と新規性検出において重要な手法となっている。
本研究では,カーネル手段の適応マッチングのための新しい手法を提案し,高い重要度を持つ選択データを用いて計算効率を最適化する手法を提案する。
様々な実世界のデータセットに対する実験結果から,提案手法はいくつかの最先端手法と比較して優れた性能が得られることを示した。
論文 参考訳(メタデータ) (2020-11-16T09:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。