論文の概要: RoME: Domain-Robust Mixture-of-Experts for MILP Solution Prediction across Domains
- arxiv url: http://arxiv.org/abs/2511.02331v1
- Date: Tue, 04 Nov 2025 07:32:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.839149
- Title: RoME: Domain-Robust Mixture-of-Experts for MILP Solution Prediction across Domains
- Title(参考訳): RoME: ドメイン間のMILPソリューション予測のためのドメイン-ロバスト混合処理
- Authors: Tianle Pu, Zijie Geng, Haoyang Liu, Shixuan Liu, Jie Wang, Li Zeng, Chao Chen, Changjun Fan,
- Abstract要約: ドメイン間のMILPソリューションを予測するための,ドメイン-Robust Mixture-of-ExpertsフレームワークであるRoMEを紹介する。
3つのドメインでトレーニングされた1つのRoMEモデルは平均67.7%の改善を達成し、5つの異なるドメインで評価する。
- 参考スコア(独自算出の注目度): 17.62400981694534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mixed-Integer Linear Programming (MILP) is a fundamental and powerful framework for modeling complex optimization problems across diverse domains. Recently, learning-based methods have shown great promise in accelerating MILP solvers by predicting high-quality solutions. However, most existing approaches are developed and evaluated in single-domain settings, limiting their ability to generalize to unseen problem distributions. This limitation poses a major obstacle to building scalable and general-purpose learning-based solvers. To address this challenge, we introduce RoME, a domain-Robust Mixture-of-Experts framework for predicting MILP solutions across domains. RoME dynamically routes problem instances to specialized experts based on learned task embeddings. The model is trained using a two-level distributionally robust optimization strategy: inter-domain to mitigate global shifts across domains, and intra-domain to enhance local robustness by introducing perturbations on task embeddings. We reveal that cross-domain training not only enhances the model's generalization capability to unseen domains but also improves performance within each individual domain by encouraging the model to capture more general intrinsic combinatorial patterns. Specifically, a single RoME model trained on three domains achieves an average improvement of 67.7% then evaluated on five diverse domains. We further test the pretrained model on MIPLIB in a zero-shot setting, demonstrating its ability to deliver measurable performance gains on challenging real-world instances where existing learning-based approaches often struggle to generalize.
- Abstract(参考訳): Mixed-Integer Linear Programming (MILP)は、様々な領域にわたる複雑な最適化問題をモデル化するための基礎的で強力なフレームワークである。
近年、学習に基づく手法は、高品質な解を予測してMILPソルバを高速化する大きな可能性を示している。
しかし、既存のほとんどのアプローチは単一ドメイン設定で開発され、評価され、問題分布を一般化する能力に制限される。
この制限は、スケーラブルで汎用的な学習ベースの問題解決ツールを構築する上で大きな障害となる。
この課題に対処するために、ドメイン間のMILPソリューションを予測するためのドメイン・Robust Mixture-of-ExpertsフレームワークであるRoMEを紹介します。
RoMEは、学習したタスクの埋め込みに基づいて、問題インスタンスを専門の専門家に動的にルーティングする。
このモデルは、ドメイン間のグローバルシフトを緩和するドメイン間最適化と、タスク埋め込みに摂動を導入することで局所ロバスト性を高めるドメイン間最適化戦略を用いて訓練されている。
クロスドメイントレーニングは、モデルの一般化能力を未確認領域に拡張するだけでなく、より一般的な内在的な組合せパターンを捉えることを奨励することによって、各ドメインにおけるパフォーマンスを向上させる。
具体的には、3つのドメインでトレーニングされた1つのRoMEモデルは平均67.7%の改善を達成し、5つの異なるドメインで評価する。
既存の学習ベースアプローチが一般化に苦しむ現実世界の課題に対して,MIPLIBの事前学習モデルをさらにテストし,測定可能なパフォーマンス向上を実現する能力を示す。
関連論文リスト
- Unsupervised Multi-Source Federated Domain Adaptation under Domain Diversity through Group-Wise Discrepancy Minimization [2.522791298432536]
Unsupervised Multi-source Domain adapt (UMDA) は、複数の多様なソースドメインからのラベル付きデータを活用することにより、ラベルなしのターゲットドメインに一般化するモデルを学習することを目的としている。
GALAはスケーラブルで堅牢なUMDAフレームワークで、2つの重要なコンポーネントを導入しています。
GALAは、標準ベンチマークの競合や最先端の結果を一貫して達成し、様々なマルチソース設定で先行メソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2025-10-09T12:34:37Z) - Role Prompting Guided Domain Adaptation with General Capability Preserve
for Large Language Models [55.51408151807268]
特定のドメインに合わせると、LLM(Large Language Models)は破滅的な忘れを経験する傾向がある。
同時に複数のドメインのための汎用モデルを構築することで、全体的なパフォーマンスが低下することが多い。
RolE Prompting Guided Multi-Domain Adaptation (REGA) 戦略を提案する。
論文 参考訳(メタデータ) (2024-03-05T08:22:41Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - TAL: Two-stream Adaptive Learning for Generalizable Person
Re-identification [115.31432027711202]
我々は、ドメイン固有性とドメイン不変性の両方が、re-idモデルの一般化能力の向上に不可欠であると主張する。
これら2種類の情報を同時にモデル化するために,2ストリーム適応学習 (TAL) を命名した。
我々のフレームワークは、単一ソースとマルチソースの両方のドメイン一般化タスクに適用できる。
論文 参考訳(メタデータ) (2021-11-29T01:27:42Z) - Discriminative Domain-Invariant Adversarial Network for Deep Domain
Generalization [33.84004077585957]
本稿では,ドメイン一般化のための識別型ドメイン不変逆数ネットワーク(DDIAN)を提案する。
DDIANは、最先端のドメイン一般化アプローチと比較して、トレーニング中の未確認対象データに対するより良い予測を実現している。
論文 参考訳(メタデータ) (2021-08-20T04:24:12Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z) - Improve Unsupervised Domain Adaptation with Mixup Training [18.329571222689562]
本稿では,ラベルの豊富な関連するソースドメインを用いて,注釈のないターゲットドメインの予測モデルを構築するという課題について検討する。
近年の研究では、ドメイン不変の特徴を学習する一般的な敵対的アプローチは、望ましいドメイン性能を達成するには不十分である。
対象データに対する一般化性能に直接対処するために、ミックスアップ定式化を用いて、ドメイン間のトレーニング制約を強制することを提案する。
論文 参考訳(メタデータ) (2020-01-03T01:21:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。