論文の概要: A General Neural Backbone for Mixed-Integer Linear Optimization via Dual Attention
- arxiv url: http://arxiv.org/abs/2601.04509v1
- Date: Thu, 08 Jan 2026 02:23:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.989895
- Title: A General Neural Backbone for Mixed-Integer Linear Optimization via Dual Attention
- Title(参考訳): デュアルアテンションによる混合整数線形最適化のための一般神経バックボーン
- Authors: Peixin Huang, Yaoxin Wu, Yining Ma, Cathy Wu, Wen Song, Wei Zhang,
- Abstract要約: 混合整数線形プログラミング(MILP)は最適化のための広く使われているモデリングフレームワークである。
ディープラーニングの最近の進歩は、MILPインスタンスを可変制約二部グラフとして表現することで、この問題に対処している。
我々は、純粋なグラフビューを超えて表現的表現を学習する、注意駆動型ニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 33.27281529953169
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mixed-integer linear programming (MILP), a widely used modeling framework for combinatorial optimization, are central to many scientific and engineering applications, yet remains computationally challenging at scale. Recent advances in deep learning address this challenge by representing MILP instances as variable-constraint bipartite graphs and applying graph neural networks (GNNs) to extract latent structural patterns and enhance solver efficiency. However, this architecture is inherently limited by the local-oriented mechanism, leading to restricted representation power and hindering neural approaches for MILP. Here we present an attention-driven neural architecture that learns expressive representations beyond the pure graph view. A dual-attention mechanism is designed to perform parallel self- and cross-attention over variables and constraints, enabling global information exchange and deeper representation learning. We apply this general backbone to various downstream tasks at the instance level, element level, and solving state level. Extensive experiments across widely used benchmarks show consistent improvements of our approach over state-of-the-art baselines, highlighting attention-based neural architectures as a powerful foundation for learning-enhanced mixed-integer linear optimization.
- Abstract(参考訳): 組合せ最適化のための広く使われているモデリングフレームワークであるMILP(Mixed-integer linear programming)は、多くの科学的および工学的応用の中心であるが、大規模に計算的に困難である。
ディープラーニングの最近の進歩は、MILPインスタンスを可変制約二部グラフとして表現し、グラフニューラルネットワーク(GNN)を適用して潜在構造パターンを抽出し、ソルバ効率を向上させることで、この問題に対処している。
しかし、このアーキテクチャは本質的にはローカル指向のメカニズムによって制限されており、表現力の制限やMILPのニューラルネットワークの妨げとなる。
ここでは、純粋グラフビューを超えた表現的表現を学習する、注意駆動型ニューラルネットワークを提案する。
デュアルアテンション機構は、変数や制約に対して並列な自己および相互アテンションを実行し、グローバルな情報交換とより深い表現学習を可能にするように設計されている。
この一般的なバックボーンを、インスタンスレベル、要素レベル、状態レベルの解決といった様々なダウンストリームタスクに適用します。
広く使用されているベンチマークに対する大規模な実験は、最先端のベースラインよりもアプローチを一貫して改善することを示し、学習強化混合整数線形最適化の強力な基盤として注目ベースのニューラルネットワークを強調している。
関連論文リスト
- Multiscale Aggregated Hierarchical Attention (MAHA): A Game Theoretic and Optimization Driven Approach to Efficient Contextual Modeling in Large Language Models [0.0]
マルチスケール集約階層的注意(MAHA)は、階層的分解と数学的に厳密な集約を通じて注意機構を再構築する新しいアーキテクチャフレームワークである。
MAHAは、入力シーケンスを学習可能なダウンサンプリング演算子を介して階層スケールに動的に分割する。
実験的なFLOP解析により,4096のシークエンス長で計算コストが81%削減されたことが確認された。
論文 参考訳(メタデータ) (2025-12-16T21:27:21Z) - Efficient Attention Mechanisms for Large Language Models: A Survey [18.86171225316892]
トランスフォーマーベースのアーキテクチャは、大規模言語モデルの一般的な計算バックボーンとなっている。
最近の研究は、効率的な注意機構の2つの主要なカテゴリを紹介している。
対照的に、スパースアテンションテクニックは、固定パターン、ブロックワイドルーティング、クラスタリング戦略に基づいて、選択されたトークンのサブセットに注意を限定する。
論文 参考訳(メタデータ) (2025-07-25T18:08:10Z) - Self-Supervised Graph Learning via Spectral Bootstrapping and Laplacian-Based Augmentations [1.0377683220196872]
本稿では,新しいグラフ学習フレームワークLaplaceGNNを紹介する。
本手法は学習過程にラプラシアンに基づく信号を統合する。
LaplaceGNNは最先端の自己教師付きグラフ法に比べて優れた性能を発揮する。
論文 参考訳(メタデータ) (2025-06-25T12:23:23Z) - ScaleGNN: Towards Scalable Graph Neural Networks via Adaptive High-order Neighboring Feature Fusion [73.85920403511706]
スケーラブルで効果的なグラフ学習のためのマルチホップノード機能を適応的に融合する新しいフレームワークであるScaleGNNを提案する。
予測精度と計算効率の両面で,ScaleGNNは最先端のGNNよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2025-04-22T14:05:11Z) - Spatiotemporal Graph Learning with Direct Volumetric Information Passing and Feature Enhancement [62.91536661584656]
本稿では,CeFeGNN(CeFeGNN)とCell-embeddedとFeature-enhanced Graph Neural Networkを学習用として提案する。
学習可能なセル属性を共通ノードエッジメッセージパッシングプロセスに埋め込むことで,地域特性の空間依存性をよりよく把握する。
各種PDEシステムと1つの実世界のデータセットを用いた実験により、CeFeGNNは他のベースラインと比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-09-26T16:22:08Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - GraphLearner: Graph Node Clustering with Fully Learnable Augmentation [76.63963385662426]
Contrastive Deep Graph Clustering (CDGC)は、異なるクラスタにノードをグループ化するために、コントラスト学習のパワーを活用する。
我々は、GraphLearnerと呼ばれる、完全学習可能な拡張を備えたグラフノードクラスタリングを提案する。
学習可能な拡張器を導入し、CDGCのための高品質でタスク固有の拡張サンプルを生成する。
論文 参考訳(メタデータ) (2022-12-07T10:19:39Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。