論文の概要: Distributional MIPLIB: a Multi-Domain Library for Advancing ML-Guided MILP Methods
- arxiv url: http://arxiv.org/abs/2406.06954v2
- Date: Sun, 27 Oct 2024 01:54:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 16:00:51.146575
- Title: Distributional MIPLIB: a Multi-Domain Library for Advancing ML-Guided MILP Methods
- Title(参考訳): 分散MIPLIB:ML-Guided MILP法によるマルチドメインライブラリ
- Authors: Weimin Huang, Taoan Huang, Aaron M Ferber, Bistra Dilkina,
- Abstract要約: 混合線形プログラミング(MILP)は最適化問題をモデル化するための基本的なツールである。
このアプローチの人気は高まっているが、同様のMILPインスタンスのディストリビューションを提供する共通のリポジトリがない。
ML誘導MILP法を進化させるための問題分散ライブラリであるDistributedal MIPLIBを紹介する。
- 参考スコア(独自算出の注目度): 14.819629773624348
- License:
- Abstract: Mixed Integer Linear Programming (MILP) is a fundamental tool for modeling combinatorial optimization problems. Recently, a growing body of research has used machine learning to accelerate MILP solving. Despite the increasing popularity of this approach, there is a lack of a common repository that provides distributions of similar MILP instances across different domains, at different hardness levels, with standardized test sets. In this paper, we introduce Distributional MIPLIB, a multi-domain library of problem distributions for advancing ML-guided MILP methods. We curate MILP distributions from existing work in this area as well as real-world problems that have not been used, and classify them into different hardness levels. It will facilitate research in this area by enabling comprehensive evaluation on diverse and realistic domains. We empirically illustrate the benefits of using Distributional MIPLIB as a research vehicle in two ways. We evaluate the performance of ML-guided variable branching on previously unused distributions to identify potential areas for improvement. Moreover, we propose to learn branching policies from a mix of distributions, demonstrating that mixed distributions achieve better performance compared to homogeneous distributions when there is limited data and generalize well to larger instances. The dataset is publicly available at https://sites.google.com/usc.edu/distributional-miplib/home.
- Abstract(参考訳): 混合整数線形計画法(MILP)は組合せ最適化問題をモデル化するための基本的なツールである。
近年、機械学習を使ってMILP問題解決を加速する研究が増えている。
このアプローチの人気は高まっているが、異なるドメイン、異なる硬度レベルで異なるMILPインスタンスの分散を標準化されたテストセットで提供する共通のリポジトリが欠如している。
本稿では,ML誘導MILP法を進化させるための問題分散のマルチドメインライブラリであるDistributedal MIPLIBを紹介する。
この領域の既存の作業と、未使用の現実世界の問題からMILP分布をキュレートし、それらを異なる硬度レベルに分類する。
多様な領域と現実的な領域の総合的な評価を可能にすることで、この分野の研究を促進する。
配電型MIPLIBを研究車両として使用することの利点を実証的に説明する。
ML誘導変数分岐の性能を未使用の分布上で評価し,改善のための潜在的な領域を特定する。
さらに,混合分布から分岐ポリシーを学習し,データに制限がある場合の同種分布と比較して,混合分布の方が優れた性能を示し,より大きなインスタンスによく一般化することを示す。
データセットはhttps://sites.google.com/usc.edu/distributional-miplib/homeで公開されている。
関連論文リスト
- Distribution-Dependent Rates for Multi-Distribution Learning [26.38831409926518]
最近のマルチディストリビューション学習フレームワークは、環境との動的相互作用において、この目的に対処する。
我々は, MDL体制における分布依存性の保証を行い, 最適値以下の差でスケールし, その結果, 試料サイズへの依存度が向上することを示した。
適応型楽観的アルゴリズム LCB-DR を考案し,マルチアームバンディット文学における均一性と楽観的アロケーションのコントラストを反映した。
論文 参考訳(メタデータ) (2023-12-20T15:50:16Z) - Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - Tackling Long-Tailed Category Distribution Under Domain Shifts [50.21255304847395]
既存のアプローチでは、両方の問題が存在するシナリオに対処できません。
本研究では,分散校正型分類損失,視覚意味マッピング,セマンティック類似性誘導拡張の3つの新しい機能ブロックを設計した。
AWA2-LTSとImageNet-LTSという2つの新しいデータセットが提案された。
論文 参考訳(メタデータ) (2022-07-20T19:07:46Z) - Cooperative Distribution Alignment via JSD Upper Bound [7.071749623370137]
教師なし分布アライメントは、2つ以上のソース分布を共有整列分布にマッピングする変換を推定する。
このタスクには、生成モデリング、教師なしドメイン適応、社会的に認識された学習など、多くの応用がある。
我々は,従来のフローベースアプローチを,単一の非逆数フレームワークで統一し,一般化することを提案する。
論文 参考訳(メタデータ) (2022-07-05T20:09:03Z) - Robust Calibration with Multi-domain Temperature Scaling [86.07299013396059]
我々は,複数の領域からのデータを活用することで,分散シフトを処理するシステムキャリブレーションモデルを開発した。
提案手法は,分布シフト時のキャリブレーションを改善するために,領域内のロバスト性を利用する。
論文 参考訳(メタデータ) (2022-06-06T17:32:12Z) - Multi-Source domain adaptation via supervised contrastive learning and
confident consistency regularization [0.0]
Multi-Source Unsupervised Domain Adaptation (multi-source UDA)は、複数のラベル付きソースドメインからモデルを学習することを目的としている。
本稿では,この制限に対処するマルチソースUDAに対して,コントラスト型マルチソースドメイン適応(CMSDA)を提案する。
論文 参考訳(メタデータ) (2021-06-30T14:39:15Z) - KL Guided Domain Adaptation [88.19298405363452]
ドメイン適応は重要な問題であり、現実世界のアプリケーションにしばしば必要である。
ドメイン適応文学における一般的なアプローチは、ソースとターゲットドメインに同じ分布を持つ入力の表現を学ぶことである。
確率的表現ネットワークにより、KL項はミニバッチサンプルにより効率的に推定できることを示す。
論文 参考訳(メタデータ) (2021-06-14T22:24:23Z) - WILDS: A Benchmark of in-the-Wild Distribution Shifts [157.53410583509924]
分散シフトは、ワイルドにデプロイされた機械学習システムの精度を実質的に低下させることができる。
分散シフトの多様な範囲を反映した8つのベンチマークデータセットのキュレーションコレクションであるWILDSを紹介します。
本研究は, 標準訓練の結果, 分布性能よりも, 分布域外性能が有意に低下することを示す。
論文 参考訳(メタデータ) (2020-12-14T11:14:56Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Learning to Combine: Knowledge Aggregation for Multi-Source Domain
Adaptation [56.694330303488435]
マルチソースドメイン適応(LtC-MSDA)フレームワークを併用する学習法を提案する。
簡単に言うと、知識グラフは様々なドメインのプロトタイプ上に構築され、セマンティックに隣接した表現間の情報伝達を実現する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-07-17T07:52:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。