論文の概要: Multi-task Representation Learning for Mixed Integer Linear Programming
- arxiv url: http://arxiv.org/abs/2412.14409v1
- Date: Wed, 18 Dec 2024 23:33:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:32:32.057080
- Title: Multi-task Representation Learning for Mixed Integer Linear Programming
- Title(参考訳): 混合整数線形計画法におけるマルチタスク表現学習
- Authors: Junyang Cai, Taoan Huang, Bistra Dilkina,
- Abstract要約: 本稿では,ML誘導MILP問題解決のためのマルチタスク学習フレームワークについて紹介する。
我々は,マルチタスク学習モデルが同一分布内の特殊モデルと類似して動作することを示す。
これは、問題のサイズやタスクの一般化において、それらを著しく上回る。
- 参考スコア(独自算出の注目度): 13.106799330951842
- License:
- Abstract: Mixed Integer Linear Programs (MILPs) are highly flexible and powerful tools for modeling and solving complex real-world combinatorial optimization problems. Recently, machine learning (ML)-guided approaches have demonstrated significant potential in improving MILP-solving efficiency. However, these methods typically rely on separate offline data collection and training processes, which limits their scalability and adaptability. This paper introduces the first multi-task learning framework for ML-guided MILP solving. The proposed framework provides MILP embeddings helpful in guiding MILP solving across solvers (e.g., Gurobi and SCIP) and across tasks (e.g., Branching and Solver configuration). Through extensive experiments on three widely used MILP benchmarks, we demonstrate that our multi-task learning model performs similarly to specialized models within the same distribution. Moreover, it significantly outperforms them in generalization across problem sizes and tasks.
- Abstract(参考訳): 混合整数線形プログラム(MILP)は、複雑な実世界の組合せ最適化問題をモデル化し解決するための非常に柔軟で強力なツールである。
近年、機械学習(ML)誘導アプローチはMILP解決効率を向上する大きな可能性を示している。
しかし、これらのメソッドは、通常、個別のオフラインデータ収集とトレーニングプロセスに依存し、スケーラビリティと適応性を制限する。
本稿では,ML誘導MILP問題解決のためのマルチタスク学習フレームワークについて紹介する。
提案したフレームワークは、MILP解決を解決者(例えば、GurobiとSCIP)、タスク(例えば、ブランチとソルバーの設定)間で導くのに役立つMILP埋め込みを提供する。
広範に使われているMILPベンチマークの広範な実験を通して、我々のマルチタスク学習モデルが、同じ分布内の特殊モデルと同じような性能を示すことを示した。
さらに、問題のサイズやタスクの一般化において、それらを著しく上回る。
関連論文リスト
- Towards Foundation Models for Mixed Integer Linear Programming [15.064109397239086]
MILPの最近のディープラーニングアプローチは、特定の問題クラスに焦点を当てており、目に見えないクラスに一般化しない。
多様なMILPクラスを多数生成できる新しい進化的フレームワークであるMILP-Evolveを紹介する。
実験の結果,MILP-Evolveが生成したデータに基づいてトレーニングしたモデルでは,目に見えない問題に対して大幅な改善が得られた。
論文 参考訳(メタデータ) (2024-10-10T18:20:44Z) - Hybrid Training for Enhanced Multi-task Generalization in Multi-agent Reinforcement Learning [7.6201940008534175]
HyGenは、オンラインとオフラインの学習を統合し、マルチタスクの一般化とトレーニング効率の両立を保証する新しいハイブリッドMARLフレームワークである。
我々は、我々のフレームワークが一般的なスキルを効果的に抽出し、洗練し、目に見えないタスクに印象的な一般化をもたらすことを実証的に実証した。
論文 参考訳(メタデータ) (2024-08-24T12:37:03Z) - Towards Efficient Pareto Set Approximation via Mixture of Experts Based Model Fusion [53.33473557562837]
大規模深層ニューラルネットワークに対する多目的最適化問題を解くことは、損失ランドスケープの複雑さと高価な計算コストのために難しい課題である。
本稿では,専門家(MoE)をベースとしたモデル融合を用いて,この問題を実用的でスケーラブルに解決する手法を提案する。
特殊な単一タスクモデルの重みをまとめることで、MoEモジュールは複数の目的間のトレードオフを効果的に捉えることができる。
論文 参考訳(メタデータ) (2024-06-14T07:16:18Z) - Mixture-of-Instructions: Comprehensive Alignment of a Large Language Model through the Mixture of Diverse System Prompting Instructions [7.103987978402038]
我々はMixture-of-Instructions (MoI)と呼ばれる新しいテクニックを紹介する。
MoIは、言語モデルのアライメント効率を高めるために、多様なシステムプロンプトと組み合わせた命令結合戦略を採用している。
提案手法はオープンソースQwen-7B-chatモデルに適用され,Qwen-SFT-MoIの開発が完了した。
論文 参考訳(メタデータ) (2024-04-29T03:58:12Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Multi-Task Cooperative Learning via Searching for Flat Minima [8.835287696319641]
本稿では,MTLを多段最適化問題として定式化し,各タスクから協調的なアプローチで特徴を学習させることを提案する。
具体的には、他のタスクの学習したサブモデルを利用する代わりに、各タスクのサブモデルを更新する。
最適化時の負の伝達問題を緩和するため、現在の目的関数に対する平坦な最小値を求める。
論文 参考訳(メタデータ) (2023-09-21T14:00:11Z) - Low-Rank Multitask Learning based on Tensorized SVMs and LSSVMs [65.42104819071444]
マルチタスク学習(MTL)はタスク関連性を活用して性能を向上させる。
タスクインデックスに対応する各モードを持つ高次テンソルを用いて、複数のインデックスが参照するタスクを自然に表現する。
テンソル化サポートベクターマシン(SVM)と最小2乗サポートベクターマシン(LSSVM)を併用した低ランクMTL手法の汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T14:28:26Z) - Multi-task twin support vector machine with Universum data [0.0]
本研究では,Universumデータを用いたマルチタスク学習の課題について考察する。
UMTSVM(Universum Data)を用いたマルチタスクツインサポートベクタマシンを提案し,そのソリューションに2つのアプローチを提供する。
いくつかの一般的なマルチタスクデータセットと医療データセットに関する数値実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-06-22T11:05:58Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - MALib: A Parallel Framework for Population-based Multi-agent
Reinforcement Learning [61.28547338576706]
人口ベースマルチエージェント強化学習(PB-MARL)は、強化学習(RL)アルゴリズムでネストした一連の手法を指す。
PB-MARLのためのスケーラブルで効率的な計算フレームワークMALibを提案する。
論文 参考訳(メタデータ) (2021-06-05T03:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。