論文の概要: Learning to Solve Weighted Maximum Satisfiability with a Co-Training Architecture
- arxiv url: http://arxiv.org/abs/2511.19544v1
- Date: Mon, 24 Nov 2025 11:22:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.08708
- Title: Learning to Solve Weighted Maximum Satisfiability with a Co-Training Architecture
- Title(参考訳): 協調学習型アーキテクチャによる最大満足度向上の学習
- Authors: Kaidi Wan, Minghao Liu, Yong Lai,
- Abstract要約: SplitGNNはグラフニューラルネットワーク(GNN)ベースのアプローチで、最大重み付けサシフィアビリティ(MaxSAT)問題の解法を学ぶ。
以上の結果から,他のGNN法と比較すると,SplitGNNは3*の収束率と予測精度が向上することがわかった。
- 参考スコア(独自算出の注目度): 3.6954955003852064
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Wepropose SplitGNN, a graph neural network (GNN)-based approach that learns to solve weighted maximum satisfiabil ity (MaxSAT) problem. SplitGNN incorporates a co-training architecture consisting of supervised message passing mech anism and unsupervised solution boosting layer. A new graph representation called edge-splitting factor graph is proposed to provide more structural information for learning, which is based on spanning tree generation and edge classification. To improve the solutions on challenging and weighted instances, we implement a GPU-accelerated layer applying efficient score calculation and relaxation-based optimization. Exper iments show that SplitGNN achieves 3* faster convergence and better predictions compared with other GNN-based ar chitectures. More notably, SplitGNN successfully finds solu tions that outperform modern heuristic MaxSAT solvers on much larger and harder weighted MaxSAT benchmarks, and demonstrates exceptional generalization abilities on diverse structural instances.
- Abstract(参考訳): Wepropose SplitGNN, a graph neural network (GNN)-based approach that learn to solve tosolved maximum satisfiabil ity (MaxSAT) problem。
SplitGNNは、教師付きメッセージパッシングメカアニシズムと教師なしソリューションブースティング層からなるコトレーニングアーキテクチャを組み込んでいる。
エッジ分割因子グラフと呼ばれる新しいグラフ表現が提案され,樹冠生成とエッジ分類に基づく学習のためのより構造的な情報を提供する。
困難で重み付けされたインスタンスの解を改善するために,効率的なスコア計算と緩和に基づく最適化を適用したGPU加速層を実装した。
Exper imentsは、SplitGNNが他のGNNベースのarキテクチュアと比較して3*高速な収束と予測を達成していることを示している。
より顕著なことに、SplitGNNは、より大きくより重み付けされたMaxSATベンチマークにおいて、現代のヒューリスティックなMaxSATソルバよりも優れた可溶性イオンを発見し、多様な構造インスタンス上で例外的な一般化能力を示す。
関連論文リスト
- A Distributed Training Architecture For Combinatorial Optimization [0.0]
最適化のための分散グラフニューラルネットワーク(GNN)に基づくトレーニングフレームワークを提案する。
実大規模ソーシャルネットワークデータセットと合成された高複雑性グラフの両方で実験を行った。
我々のフレームワークは、ソリューションの品質と計算効率の両方において最先端のアプローチより優れています。
論文 参考訳(メタデータ) (2025-11-12T12:22:10Z) - ScaleGNN: Towards Scalable Graph Neural Networks via Adaptive High-order Neighboring Feature Fusion [73.85920403511706]
スケーラブルで効果的なグラフ学習のためのマルチホップノード機能を適応的に融合する新しいフレームワークであるScaleGNNを提案する。
予測精度と計算効率の両面で,ScaleGNNは最先端のGNNよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2025-04-22T14:05:11Z) - GDSG: Graph Diffusion-based Solution Generator for Optimization Problems in MEC Networks [109.17835015018532]
グラフ拡散型ソリューション生成(GDSG)法を提案する。
このアプローチは、おそらく最適な解に収束しながら、最適以下のデータセットを扱うように設計されている。
グラフニューラルネットワーク(GNN)を用いたマルチタスク拡散モデルとしてGDSGを構築し,高品質な解の分布を求める。
論文 参考訳(メタデータ) (2024-12-11T11:13:43Z) - Enhancing GNNs Performance on Combinatorial Optimization by Recurrent Feature Update [0.09986418756990156]
本稿では,組合せ最適化(CO)問題を効率よく解くために,GNNのパワーを活用して,QRF-GNNと呼ぶ新しいアルゴリズムを提案する。
QUBO緩和による損失関数の最小化による教師なし学習に依存している。
実験の結果、QRF-GNNは既存の学習ベースアプローチを大幅に上回り、最先端の手法に匹敵することがわかった。
論文 参考訳(メタデータ) (2024-07-23T13:34:35Z) - Towards a General Recipe for Combinatorial Optimization with Multi-Filter GNNs [13.871690454501389]
本稿では,グラフ上のCO問題を解くために,複雑なフィルタバンクと局所的な注意機構を活用する新しいGNNアーキテクチャであるGCONを紹介する。
GCONはすべてのタスクで競争力があり、他の特別なGNNベースのアプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2024-05-31T00:02:07Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Are Graph Neural Networks Optimal Approximation Algorithms? [26.5364112420121]
最適化問題のクラスに対して最適な近似アルゴリズムをキャプチャするグラフニューラルネットワークアーキテクチャを設計する。
我々は、OptGNNの学習した埋め込みから最適解のバウンダリを生成するアルゴリズムを設計するために、凸緩和を捕捉するOptGNNの能力を利用する。
論文 参考訳(メタデータ) (2023-10-01T00:12:31Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - GNNRank: Learning Global Rankings from Pairwise Comparisons via Directed
Graph Neural Networks [68.61934077627085]
本稿では,グラフ埋め込みを学習可能なGNNと互換性のあるモデリングフレームワークであるGNNRankを紹介する。
既存の手法と比較して,我々の手法が競争力があり,しばしば優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-02-01T04:19:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。