論文の概要: Attn-JGNN: Attention Enhanced Join-Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2510.15583v1
- Date: Fri, 17 Oct 2025 12:24:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.613877
- Title: Attn-JGNN: Attention Enhanced Join-Graph Neural Networks
- Title(参考訳): Attn-JGNN: ジョイングラフニューラルネットワークの注意力向上
- Authors: Jixin Zhang, Yong Lai,
- Abstract要約: Intention Enhanced Join-Graph Neural Networks (Attn-JGNN) モデルを提案する。
Attn-JGNNは木分解を利用してCNF式をジョイングラフにエンコードし、次にジョイングラフに反復メッセージパッシングを行い、最終的に分割関数を学習することでモデル番号を近似する。
実験の結果,我々のAttn-JGNNモデルは,他のニューラルネットワーク手法よりも優れた結果が得られることがわかった。
- 参考スコア(独自算出の注目度): 3.2972851108503014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose an Attention Enhanced Join-Graph Neural Networks(Attn-JGNN) model for solving #SAT problems, which significantly improves the solving accuracy. Inspired by the Iterative Join Graph Propagation (IJGP) algorithm, Attn-JGNN uses tree decomposition to encode the CNF formula into a join-graph, then performs iterative message passing on the join-graph, and finally approximates the model number by learning partition functions. In order to further improve the accuracy of the solution, we apply the attention mechanism in and between clusters of the join-graphs, which makes Attn-JGNN pay more attention to the key variables and clusters in probabilistic inference, and reduces the redundant calculation. Finally, our experiments show that our Attn-JGNN model achieves better results than other neural network methods.
- Abstract(参考訳): Intention Enhanced Join-Graph Neural Networks (Attn-JGNN) モデルを提案する。
Iterative Join Graph Propagation (IJGP)アルゴリズムにインスパイアされたAttn-JGNNは、木分解を用いてCNF式をジョイングラフにエンコードし、次にジョイングラフ上で反復メッセージパッシングを行い、最終的に分割関数を学習することでモデル番号を近似する。
解の精度をさらに向上するために、結合グラフのクラスタとクラスタ間の注意機構を適用し、Attn-JGNNは確率的推論において重要な変数やクラスタにより多くの注意を払っており、冗長な計算を減らす。
最後に、我々の実験により、我々のAttn-JGNNモデルは、他のニューラルネットワーク手法よりも優れた結果が得られることが示された。
関連論文リスト
- LoRAP: Low-Rank Aggregation Prompting for Quantized Graph Neural Networks Training [11.467461008058509]
グラフニューラルネットワーク(GNN)は、グラフデータを処理し、ノード間の関係と相互作用をキャプチャすることを目的としたニューラルネットワークである。
本稿では,GNNにおける量子化学習(QAT)の性能向上のために,入力データを操作する即時学習を活用することを提案する。
論文 参考訳(メタデータ) (2026-01-21T15:23:18Z) - Sparse Decomposition of Graph Neural Networks [20.768412002413843]
本稿では,集約中に含まれるノード数を削減する手法を提案する。
線形変換された特徴の重み付け和を用いてノード表現の近似を学習し、スパース分解によりこれを実現できる。
提案手法は推論高速化のために設計された他のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-25T17:52:16Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - MAG-GNN: Reinforcement Learning Boosted Graph Neural Network [68.60884768323739]
特定の研究の行は、GNNの表現性を向上させるためにサブグラフ情報を使用するサブグラフGNNを提案し、大きな成功を収めた。
このような効果は、すべての可能な部分グラフを列挙することによって、GNNの効率を犠牲にする。
本稿では,強化学習(RL)により強化されたGNNである磁気グラフニューラルネットワーク(MAG-GNN)を提案する。
論文 参考訳(メタデータ) (2023-10-29T20:32:21Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Deep Graph Neural Networks via Posteriori-Sampling-based Node-Adaptive Residual Module [65.81781176362848]
グラフニューラルネットワーク(GNN)は、近隣情報収集を通じてグラフ構造化データから学習することができる。
レイヤーの数が増えるにつれて、ノード表現は区別不能になり、オーバー・スムーシング(over-smoothing)と呼ばれる。
我々は,textbfPosterior-Sampling-based, Node-distinguish Residual Module (PSNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Edge Graph Neural Networks for Massive MIMO Detection [15.970981766599035]
無線通信システムにおいて、MIMO(Massive Multiple-Input Multiple-Out)検出は重要な問題である。
従来のBreief Propagation(BP)検出器はループグラフでは性能が良くないが、最近のグラフニューラルネットワーク(GNN)ベースの手法はBPの欠点を克服し、優れた性能を実現することができる。
論文 参考訳(メタデータ) (2022-05-22T08:01:47Z) - Two-level Graph Neural Network [15.014364222532347]
2レベルGNN(TL-GNN)と呼ばれる新しいGNNフレームワークを提案する。
これは、サブグラフレベル情報とノードレベル情報とをマージする。
実験により、TL-GNNは既存のGNNよりも優れ、最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2022-01-03T02:15:20Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Graph Neural Networks for Motion Planning [108.51253840181677]
低次元問題に対する高密度固定グラフ上のGNNと高次元問題に対するサンプリングベースGNNの2つの手法を提案する。
RRT(Rapidly-Exploring Random Trees)におけるクリティカルノードの特定やサンプリング分布の学習といった計画上の問題にGNNが取り組む能力について検討する。
臨界サンプリング、振り子、6つのDoFロボットアームによる実験では、GNNは従来の分析手法の改善だけでなく、完全に接続されたニューラルネットワークや畳み込みニューラルネットワークを用いた学習アプローチも示している。
論文 参考訳(メタデータ) (2020-06-11T08:19:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。