論文の概要: Should Graph Convolution Trust Neighbors? A Simple Causal Inference
Method
- arxiv url: http://arxiv.org/abs/2010.11797v2
- Date: Sun, 6 Jun 2021 06:29:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 05:39:30.451094
- Title: Should Graph Convolution Trust Neighbors? A Simple Causal Inference
Method
- Title(参考訳): グラフ・コンボリューション・トラストの隣人?
単純な因果推論法
- Authors: Fuli Feng, Weiran Huang, Xiangnan He, Xin Xin, Qifan Wang, Tat-Seng
Chua
- Abstract要約: グラフ畳み込みネットワーク(GCN)は情報検索(IR)アプリケーションのための新興技術である。
この研究は、ほとんど精査されていないテストノードの局所的な構造差に焦点を当てている。
本稿では,GCNの動作メカニズムを因果グラフを用いて解析し,ノードの局所構造による因果効果を推定する。
- 参考スコア(独自算出の注目度): 114.48708191371524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Network (GCN) is an emerging technique for information
retrieval (IR) applications. While GCN assumes the homophily property of a
graph, real-world graphs are never perfect: the local structure of a node may
contain discrepancy, e.g., the labels of a node's neighbors could vary. This
pushes us to consider the discrepancy of local structure in GCN modeling.
Existing work approaches this issue by introducing an additional module such as
graph attention, which is expected to learn the contribution of each neighbor.
However, such module may not work reliably as expected, especially when there
lacks supervision signal, e.g., when the labeled data is small. Moreover,
existing methods focus on modeling the nodes in the training data, and never
consider the local structure discrepancy of testing nodes.
This work focuses on the local structure discrepancy issue for testing nodes,
which has received little scrutiny. From a novel perspective of causality, we
investigate whether a GCN should trust the local structure of a testing node
when predicting its label. To this end, we analyze the working mechanism of GCN
with causal graph, estimating the causal effect of a node's local structure for
the prediction. The idea is simple yet effective: given a trained GCN model, we
first intervene the prediction by blocking the graph structure; we then compare
the original prediction with the intervened prediction to assess the causal
effect of the local structure on the prediction. Through this way, we can
eliminate the impact of local structure discrepancy and make more accurate
prediction. Extensive experiments on seven node classification datasets show
that our method effectively enhances the inference stage of GCN.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は情報検索(IR)アプリケーションのための新興技術である。
GCNはグラフのホモフィリーの性質を仮定するが、実世界のグラフは完璧ではない。
これにより、GCNモデリングにおける局所構造の不一致を考慮せざるを得ない。
既存の作業では、グラフアテンションなどの追加モジュールを導入することでこの問題に対処している。
しかし、そのようなモジュールは、特にラベル付きデータが小さい場合など、監視信号がない場合は、期待通りに動作しない。
さらに、既存の手法では、トレーニングデータのノードのモデリングに重点を置いており、テストノードのローカル構造の不一致を考慮することは決してない。
本研究は,ノードテストにおける局所構造不一致の問題に焦点をあてる。
因果関係の新たな観点から,GCNはそのラベルを予測する際に,テストノードの局所構造を信頼すべきかどうかを検討する。
そこで本研究では,gcnの動作機構を因果グラフで解析し,予測のためのノードの局所構造の因果効果を推定する。
訓練されたgcnモデルが与えられたら、まずグラフ構造をブロックして予測を介入し、その後、元の予測と介入された予測を比較して、局所構造の予測に対する因果効果を評価する。
これにより,局所構造の不一致の影響を解消し,より正確な予測を行うことができる。
7つのノード分類データセットに対する大規模な実験により,本手法はGCNの推論段階を効果的に向上させることが示された。
関連論文リスト
- Probability Passing for Graph Neural Networks: Graph Structure and Representations Joint Learning [8.392545965667288]
グラフニューラルネットワーク(GNN)は、幅広い領域にわたる非ユークリッドデータの解析において顕著な成功を収めている。
この問題を解決するために、ノード特徴の類似性やエッジ確率を計算することにより、タスク固有の潜在構造を推論するために、遅延グラフ推論(LGI)を提案する。
本稿では,隣接ノードのエッジ確率を集約することにより,生成したグラフ構造を洗練するためのProbability Passingという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-15T13:01:47Z) - Structure Enhanced Graph Neural Networks for Link Prediction [6.872826041648584]
リンク予測のための構造拡張グラフニューラルネットワーク(SEG)を提案する。
SEGは、ターゲットノードの周囲の位相情報を通常のGNNモデルに組み込む。
OGBリンク予測データセットの実験は、SEGが最先端の結果を達成することを示す。
論文 参考訳(メタデータ) (2022-01-14T03:49:30Z) - Local Augmentation for Graph Neural Networks [78.48812244668017]
本稿では,局所的な部分グラフ構造によりノード特性を向上する局所拡張を提案する。
局所的な拡張に基づいて、プラグイン・アンド・プレイ方式で任意のGNNモデルに適用可能な、LA-GNNという新しいフレームワークをさらに設計する。
論文 参考訳(メタデータ) (2021-09-08T18:10:08Z) - Node Feature Kernels Increase Graph Convolutional Network Robustness [19.076912727990326]
グラフ畳み込みネットワーク(GCN)の入力の摂動に対する堅牢性は、ますます重要になっているトピックになりつつある。
本稿では,ランダム行列理論解析が可能である。
グラフ構造の隣接行列にノード特徴カーネルを追加することで、GCNにおけるメッセージパッシングステップの強化がこの問題を解決することが観察された。
論文 参考訳(メタデータ) (2021-09-04T04:20:45Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - Node Similarity Preserving Graph Convolutional Networks [51.520749924844054]
グラフニューラルネットワーク(GNN)は、ノード近傍の情報を集約し変換することで、グラフ構造とノードの特徴を探索する。
グラフ構造を利用してノード類似性を効果的かつ効率的に保存できるSimP-GCNを提案する。
本研究は,SimP-GCNが3つの分類グラフと4つの非補助グラフを含む7つのベンチマークデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2020-11-19T04:18:01Z) - On the Equivalence of Decoupled Graph Convolution Network and Label
Propagation [60.34028546202372]
いくつかの研究は、カップリングがデカップリングよりも劣っていることを示している。
有効性にもかかわらず、疎結合GCNの作用機構はよく理解されていない。
本稿では,分離GCNの欠陥を克服する適応的学習法(PTA)を提案する。
論文 参考訳(メタデータ) (2020-10-23T13:57:39Z) - AM-GCN: Adaptive Multi-channel Graph Convolutional Networks [85.0332394224503]
グラフ畳み込みネットワーク(GCN)は,豊富な情報を持つ複雑なグラフにおいて,ノードの特徴と位相構造を最適に統合できるかどうかを検討する。
半教師付き分類(AM-GCN)のための適応型マルチチャネルグラフ畳み込みネットワークを提案する。
実験の結果,AM-GCNはノードの特徴とトポロジ的構造の両方から最も相関性の高い情報を抽出することがわかった。
論文 参考訳(メタデータ) (2020-07-05T08:16:03Z) - Unifying Graph Convolutional Neural Networks and Label Propagation [73.82013612939507]
LPAとGCNの関係を特徴・ラベルの平滑化と特徴・ラベルの影響の2点の観点から検討した。
理論解析に基づいて,ノード分類のためのGCNとLCAを統一するエンドツーエンドモデルを提案する。
我々のモデルは、既存の特徴に基づく注目モデルよりもタスク指向のノードラベルに基づく学習注意重みと見なすこともできる。
論文 参考訳(メタデータ) (2020-02-17T03:23:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。