論文の概要: Divide, Harmonize, Then Conquer It: Shooting Multi-Commodity Flow Problems with Multimodal Language Models
- arxiv url: http://arxiv.org/abs/2602.11057v1
- Date: Wed, 11 Feb 2026 17:24:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:02.238938
- Title: Divide, Harmonize, Then Conquer It: Shooting Multi-Commodity Flow Problems with Multimodal Language Models
- Title(参考訳): 分割・調和・並列化:マルチモーダル言語モデルを用いたマルチコモディティフロー問題のシューティング
- Authors: Xinyu Yuan, Yan Qiao, Zonghui Wang, Wenzhi Chen,
- Abstract要約: マルチモーダル言語モデル(MLM)の推論能力を利用して、トレードオフジレンマに対処する最初のMLベースの手法であるPramを提案する。
Pramは客観的で、メインストリームのアロケーションシステムとシームレスに統合され、将来のネットワークに実用的でスケーラブルなソリューションを提供する。
- 参考スコア(独自算出の注目度): 23.382563394142082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The multi-commodity flow (MCF) problem is a fundamental topic in network flow and combinatorial optimization, with broad applications in transportation, communication, and logistics, etc. Nowadays, the rapid expansion of allocation systems has posed challenges for existing optimization engines in balancing optimality and tractability. In this paper, we present Pram, the first ML-based method that leverages the reasoning power of multimodal language models (MLMs) for addressing the trade-off dilemma -- a great need of service providers. As part of our proposal, Pram (i) quickly computes high-quality allocations by dividing the original problem into local subproblems, which are then resolved by an MLM-powered "agent", and (ii) ensures global consistency by harmonizing these subproblems via a multi-agent reinforcement learning algorithm. Theoretically, we show that Pram, which learns to perform gradient descent in context, provably converges to the optimum within the family of MCF problems. Empirically, on real-world datasets and public topologies, Pram achieves performance comparable to, and in some cases even surpassing, linear programming solvers (very close to the optimal solution), and substantially lower runtimes (1 to 2 orders of magnitude faster). Moreover, Pram exhibits strong robustness (<10\% performance degradation under link failures or flow bursts), demonstrating MLM's generalization ability to unforeseen events. Pram is objective-agnostic and seamlessly integrates with mainstream allocation systems, providing a practical and scalable solution for future networks.
- Abstract(参考訳): マルチ・コモディティ・フロー(MCF)問題は、輸送、通信、物流などの幅広い分野において、ネットワークフローと組合せ最適化の基本的なトピックである。
近年,アロケーションシステムの急速な拡張は,最適性とトラクタビリティのバランスをとる上で,既存の最適化エンジンに課題を提起している。
本稿では,マルチモーダル言語モデル(MLM)の推論能力を活用して,サービスプロバイダの大きなニーズであるトレードオフジレンマに対処する,MLベースの最初の手法であるPramを提案する。
私たちの提案の一部として、Pram
(i)元の問題を局所的なサブプロブレムに分割して高速に高品質な割当を計算する。
(II)マルチエージェント強化学習アルゴリズムを用いてこれらのサブプロブレムを調和させることにより,グローバルな一貫性を確保する。
理論的には、文脈における勾配降下を学習するPramが、MCF問題の族内の最適値に確実に収束していることが示される。
実証的には、実世界のデータセットとパブリックトポロジにおいて、Pramはパフォーマンスを達成し、場合によっては線形プログラミングの解法(最適解に非常に近い)に匹敵するパフォーマンスを達成し、実行時(桁違い1~2桁高速)はかなり低い。
さらに、Pramは強い堅牢性(リンク障害やフローバースト下での10\%の性能劣化)を示し、MLMが予期せぬ事象を一般化する能力を示している。
Pramは客観的で、メインストリームのアロケーションシステムとシームレスに統合され、将来のネットワークに実用的でスケーラブルなソリューションを提供する。
関連論文リスト
- Mitigating Modality Imbalance in Multi-modal Learning via Multi-objective Optimization [57.00656508727821]
マルチモーダル学習(MML)は、複数のモーダルからの情報を統合することを目的としており、単一のモーダル学習よりも優れたパフォーマンスをもたらすことが期待されている。
近年の研究では、MMLはモダリティにまたがる不均衡学習のため、単一モダリティアプローチと比較しても性能が劣っていることが示されている。
本稿では,修正ML問題を解くための勾配に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-11-10T04:16:01Z) - Pareto Multi-Objective Alignment for Language Models [7.9051473654430655]
大規模言語モデル(LLM)は、複数の、しばしば矛盾する、目的の慎重なバランスを必要とする現実世界のアプリケーションに、ますます多くデプロイされている。
LLMにおける多目的アライメント(MOA)を明示的に設計するアルゴリズムを提案する。
PAMAは、マルチオブジェクトRLHFをクローズドフォームソリューションで凸最適化に変換し、スケーラビリティを大幅に向上させる。
論文 参考訳(メタデータ) (2025-08-11T08:54:14Z) - FMIP: Joint Continuous-Integer Flow For Mixed-Integer Linear Programming [52.52020895303244]
Mixed-Integer Linear Programming (MILP)は、複雑な意思決定問題の基本的なツールである。
混合整数線形計画法(FMIP)のための連立連続整数フローを提案する。これはMILPソリューションにおける整数変数と連続変数の共分散をモデル化する最初の生成フレームワークである。
FMIPは任意のバックボーンネットワークや様々なダウンストリームソルバと完全に互換性があり、現実世界のMILPアプリケーションにも適している。
論文 参考訳(メタデータ) (2025-07-31T10:03:30Z) - Federated Multi-Level Optimization over Decentralized Networks [55.776919718214224]
エージェントが隣人としか通信できないネットワーク上での分散マルチレベル最適化の問題について検討する。
ネットワーク化されたエージェントが1つの時間スケールで異なるレベルの最適化問題を解くことができる新しいゴシップに基づく分散マルチレベル最適化アルゴリズムを提案する。
提案アルゴリズムは, ネットワークサイズと線形にスケーリングし, 各種アプリケーション上での最先端性能を示す。
論文 参考訳(メタデータ) (2023-10-10T00:21:10Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Compositional federated learning: Applications in distributionally
robust averaging and meta learning [31.97853929292195]
本稿では,新しい構成フェデレートラーニング(FL)フレームワークを解くための,効率的かつ効率的な合成フェデレートラーニング(ComFedL)アルゴリズムを提案する。
我々はComFedLアルゴリズムが$O(frac1sqrtT)$の収束率を達成することを証明した。
論文 参考訳(メタデータ) (2021-06-21T17:08:09Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。