論文の概要: Graph Belief Propagation Networks
- arxiv url: http://arxiv.org/abs/2106.03033v1
- Date: Sun, 6 Jun 2021 05:24:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 17:34:44.309023
- Title: Graph Belief Propagation Networks
- Title(参考訳): Graph Belief Propagation Networks
- Authors: Junteng Jia, Cenk Baykal, Vamsi K. Potluru, Austin R. Benson
- Abstract要約: グラフニューラルネットワークと集合分類の利点を組み合わせたモデルを提案する。
我々のモデルでは、各ノード上のポテンシャルはそのノードの特徴にのみ依存し、エッジポテンシャルは結合行列を介して学習される。
我々のアプローチは、解釈可能なメッセージパスグラフニューラルネットワークか、より高いキャパシティと近代化されたトレーニングを備えた集団分類手法とみなすことができる。
- 参考スコア(独自算出の注目度): 34.137798598227874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the wide-spread availability of complex relational data, semi-supervised
node classification in graphs has become a central machine learning problem.
Graph neural networks are a recent class of easy-to-train and accurate methods
for this problem that map the features in the neighborhood of a node to its
label, but they ignore label correlation during inference and their predictions
are difficult to interpret. On the other hand, collective classification is a
traditional approach based on interpretable graphical models that explicitly
model label correlations. Here, we introduce a model that combines the
advantages of these two approaches, where we compute the marginal probabilities
in a conditional random field, similar to collective classification, and the
potentials in the random field are learned through end-to-end training, akin to
graph neural networks. In our model, potentials on each node only depend on
that node's features, and edge potentials are learned via a coupling matrix.
This structure enables simple training with interpretable parameters, scales to
large networks, naturally incorporates training labels at inference, and is
often more accurate than related approaches. Our approach can be viewed as
either an interpretable message-passing graph neural network or a collective
classification method with higher capacity and modernized training.
- Abstract(参考訳): 複雑な関係データの広帯域化により、グラフにおける半教師付きノード分類が中心的な機械学習問題となっている。
グラフニューラルネットワークは、ノードの近傍にある特徴をラベルにマッピングする、この問題の訓練が容易で正確な方法の最近のクラスであるが、推論中のラベル相関を無視し、それらの予測は解釈が難しい。
一方、集合分類は、ラベル相関を明示的にモデル化する解釈可能なグラフィカルモデルに基づく従来の手法である。
本稿では,これら2つの手法の利点を組み合わせたモデルを紹介し,集合的分類に類似した条件付き確率場における限界確率を計算し,確率場のポテンシャルをグラフニューラルネットワークと同様のエンドツーエンドトレーニングによって学習する。
我々のモデルでは、各ノードのポテンシャルはそのノードの特徴のみに依存し、エッジポテンシャルは結合行列を介して学習される。
この構造は、解釈可能なパラメータによる単純なトレーニングを可能にし、大きなネットワークにスケールし、推論時にトレーニングラベルを自然に組み込む。
我々のアプローチは、解釈可能なメッセージパスグラフニューラルネットワークか、より高いキャパシティと近代化されたトレーニングを備えた集団分類手法とみなすことができる。
関連論文リスト
- Federated Graph Semantic and Structural Learning [54.97668931176513]
本稿では,ノードレベルのセマンティクスとグラフレベルの構造の両方によって局所的なクライアントの歪みがもたらされることを示す。
構造的グラフニューラルネットワークは、固有の隣接関係のため、隣人に類似性を持っていると仮定する。
我々は、隣接関係を類似度分布に変換し、グローバルモデルを利用して関係知識を局所モデルに蒸留する。
論文 参考訳(メタデータ) (2024-06-27T07:08:28Z) - GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - On Discprecncies between Perturbation Evaluations of Graph Neural
Network Attributions [49.8110352174327]
我々は、グラフ領域で以前に検討されていない視点から帰属法を評価する:再学習。
中心となる考え方は、属性によって識別される重要な(あるいは重要でない)関係でネットワークを再訓練することである。
我々は4つの最先端GNN属性法と5つの合成および実世界のグラフ分類データセットについて分析を行った。
論文 参考訳(メタデータ) (2024-01-01T02:03:35Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Supervised Contrastive Learning with Structure Inference for Graph
Classification [5.276232626689567]
グラフ分類のための教師付きコントラスト学習と構造推論に基づくグラフニューラルネットワークを提案する。
ラベル情報の統合により、1-vs-manyのコントラスト学習を多-vs-many設定に拡張することができる。
実験の結果,最近の最先端手法と比較して提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-03-15T07:18:46Z) - Neighborhood Random Walk Graph Sampling for Regularized Bayesian Graph
Convolutional Neural Networks [0.6236890292833384]
本稿では,近隣ランダムウォークサンプリング(BGCN-NRWS)を用いたベイジアングラフ畳み込みネットワーク(Bayesian Graph Convolutional Network)を提案する。
BGCN-NRWSは、グラフ構造を利用したマルコフ・チェイン・モンテカルロ(MCMC)に基づくグラフサンプリングアルゴリズムを使用し、変分推論層を用いてオーバーフィッティングを低減し、半教師付きノード分類における最先端と比較して一貫して競合する分類結果を得る。
論文 参考訳(メタデータ) (2021-12-14T20:58:27Z) - Inference Graphs for CNN Interpretation [12.765543440576144]
畳み込みニューラルネットワーク(CNN)は多くの視覚関連タスクにおいて優れた精度を実現している。
本稿では,確率モデルを用いたネットワーク隠蔽層の活動のモデル化を提案する。
このようなグラフは、クラス全体の推論プロセスの理解や、ネットワークが特定の画像に対して行う決定を説明するのに有用であることを示す。
論文 参考訳(メタデータ) (2021-10-20T13:56:09Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - A Unifying Generative Model for Graph Learning Algorithms: Label
Propagation, Graph Convolutions, and Combinations [39.8498896531672]
グラフに関する半教師付き学習は、ネットワーク科学と機械学習において広く適用可能な問題である。
我々は,ノード属性のデータ生成プロセスのためのマルコフ確率場モデルを開発した。
ラベル伝播,線形化グラフ畳み込みネットワーク,それらの組み合わせが条件付き期待値として導出できることを示す。
論文 参考訳(メタデータ) (2021-01-19T17:07:08Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Residual Correlation in Graph Neural Network Regression [39.54530450932135]
我々は条件付き独立仮定が予測力を著しく制限していることを示します。
この問題を解釈可能かつ効率的なフレームワークで解決する。
我々のフレームワークは、競合するベースラインよりもかなり高い精度を実現している。
論文 参考訳(メタデータ) (2020-02-19T16:32:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。