論文の概要: BIPNN: Learning to Solve Binary Integer Programming via Hypergraph Neural Networks
- arxiv url: http://arxiv.org/abs/2505.20997v1
- Date: Tue, 27 May 2025 10:31:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.581944
- Title: BIPNN: Learning to Solve Binary Integer Programming via Hypergraph Neural Networks
- Title(参考訳): BIPNN:ハイパーグラフニューラルネットワークによるバイナリ整数プログラミングの学習
- Authors: Sen Bai, Chunqi Yang, Xin Bai, Xin Zhang, Zhengang Jiang,
- Abstract要約: ハイパーグラフニューラルネットワークを用いた非線形BIP問題の解法として,教師なし学習フレームワークであるBIPNNを提案する。
具体的には、BIPNNは、BIPs制約付き、離散的で、拡張可能な問題を、制約のない、異なる損失関数に再構成する。
このパイプラインにより、BIPNNは直線勾配降下によりBIPの大規模非線形項を完全に並列に最適化できる。
- 参考スコア(独自算出の注目度): 2.244324685724497
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Binary (0-1) integer programming (BIP) is pivotal in scientific domains requiring discrete decision-making. As the advance of AI computing, recent works explore neural network-based solvers for integer linear programming (ILP) problems. Yet, they lack scalability for tackling nonlinear challenges. To handle nonlinearities, state-of-the-art Branch-and-Cut solvers employ linear relaxations, leading to exponential growth in auxiliary variables and severe computation limitations. To overcome these limitations, we propose BIPNN (Binary Integer Programming Neural Network), an unsupervised learning framework to solve nonlinear BIP problems via hypergraph neural networks (HyperGNN). Specifically, BIPNN reformulates BIPs-constrained, discrete, and nonlinear (sin, log, exp) optimization problems-into unconstrained, differentiable, and polynomial loss functions. The reformulation stems from the observation of a precise one-to-one mapping between polynomial BIP objectives and hypergraph structures, enabling the unsupervised training of HyperGNN to optimize BIP problems in an end-to-end manner. On this basis, we propose a GPU-accelerated and continuous-annealing-enhanced training pipeline for BIPNN. The pipeline enables BIPNN to optimize large-scale nonlinear terms in BIPs fully in parallel via straightforward gradient descent, thus significantly reducing the training cost while ensuring the generation of discrete, high-quality solutions. Extensive experiments on synthetic and real-world datasets highlight the superiority of our approach.
- Abstract(参考訳): バイナリ (0-1) 整数プログラミング (BIP) は、決定決定を必要とする科学領域において重要である。
AIコンピューティングの進歩として、最近の研究は、整数線形プログラミング(ILP)問題に対するニューラルネットワークベースの解法を探求している。
しかし、それらは非線形の課題に対処するスケーラビリティに欠けています。
非線形性に対処するため、最先端のブランチ・アンド・カット・ソルバは線形緩和を導入し、補助変数の指数関数的増加と厳密な計算制限をもたらす。
これらの制限を克服するために,ハイパーグラフニューラルネットワーク(HyperGNN)を介して非線形BIP問題を解決するための教師なし学習フレームワークであるBIPNN(Binary Integer Programming Neural Network)を提案する。
具体的には、BIPNNは、非制約、離散、非線形(sin, log, exp)最適化問題を非制約、微分可能、多項式損失関数に書き換える。
この再構成は多項式BIPの目的とハイパーグラフ構造を正確に1対1でマッピングすることで、HyperGNNの教師なしトレーニングにより、エンドツーエンドでBIP問題を最適化することに由来する。
そこで本研究では,BIPNNのためのGPUアクセラレーションと連続焼鈍強化トレーニングパイプラインを提案する。
このパイプラインにより、BIPNNは直接勾配降下によりBIPの大規模非線形項を完全に並列に最適化し、離散的で高品質なソリューションの生成を確実にしながら、トレーニングコストを大幅に削減できる。
合成および実世界のデータセットに関する大規模な実験は、我々のアプローチの優位性を強調している。
関連論文リスト
- ENFORCE: Nonlinear Constrained Learning with Adaptive-depth Neural Projection [0.0]
本稿では,適応プロジェクションモジュール(AdaNP)を用いたニューラルネットワークアーキテクチャであるENFORCEを紹介した。
プロジェクションマッピングが1-Lipschitzであることが証明され、安定したトレーニングに適している。
我々の新しいアーキテクチャの予測は、ニューラルネットワークの入力と出力の両方において非線形である$N_C$等式制約を満たす。
論文 参考訳(メタデータ) (2025-02-10T18:52:22Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Projected Stochastic Gradient Descent with Quantum Annealed Binary Gradients [51.82488018573326]
重み付きニューラルネットワークのトレーニングに適した,新しいレイヤワイドオプティマイザであるQP-SBGDを提案する。
BNNは、深層学習モデルの計算要求とエネルギー消費を最小限の精度で削減する。
提案アルゴリズムは階層的に実装されており,リソース制限量子ハードウェア上での大規模ネットワークのトレーニングに適している。
論文 参考訳(メタデータ) (2023-10-23T17:32:38Z) - Characteristics-Informed Neural Networks for Forward and Inverse
Hyperbolic Problems [0.0]
双曲型PDEを含む前方および逆問題に対する特徴情報ニューラルネットワーク(CINN)を提案する。
CINNは、通常のMSEデータ適合回帰損失をトレーニングした汎用ディープニューラルネットワークにおいて、PDEの特性を符号化する。
予備的な結果は、CINNがベースラインPINNの精度を改善しつつ、トレーニングの約2倍の速さで非物理的解を回避できることを示している。
論文 参考訳(メタデータ) (2022-12-28T18:38:53Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Neural Spectrahedra and Semidefinite Lifts: Global Convex Optimization
of Polynomial Activation Neural Networks in Fully Polynomial-Time [31.94590517036704]
2次活性化を持つ2層数値ネットワークの完全凸最適化定式化を考案する。
本研究では,全入力データの複雑度とサンプルサイズが半定常的なニューラル・グローバル最適化であることを示した。
提案手法は, 標準バックプロパゲーション法に比べ, テスト精度が大幅に向上した。
論文 参考訳(メタデータ) (2021-01-07T08:43:01Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。