論文の概要: When Graph Neural Network Meets Causality: Opportunities, Methodologies and An Outlook
- arxiv url: http://arxiv.org/abs/2312.12477v3
- Date: Tue, 18 Jun 2024 02:19:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 12:11:08.017285
- Title: When Graph Neural Network Meets Causality: Opportunities, Methodologies and An Outlook
- Title(参考訳): グラフニューラルネットワークの因果関係:機会、方法論、展望
- Authors: Wenzhao Jiang, Hao Liu, Hui Xiong,
- Abstract要約: グラフニューラルネットワーク(GNN)は、さまざまなグラフ構造化データ内の複雑な依存関係をキャプチャする強力な表現学習ツールとして登場した。
GNNは、分布シフトへの感受性、特定の人口への偏見、説明責任の欠如など、信頼性に関する深刻な懸念を提起している。
因果学習技術をGNNに統合することは、多くのGNNの信頼性の問題を軽減することができるため、多くの画期的な研究を引き起こしている。
- 参考スコア(独自算出の注目度): 23.45046265345568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as powerful representation learning tools for capturing complex dependencies within diverse graph-structured data. Despite their success in a wide range of graph mining tasks, GNNs have raised serious concerns regarding their trustworthiness, including susceptibility to distribution shift, biases towards certain populations, and lack of explainability. Recently, integrating causal learning techniques into GNNs has sparked numerous ground-breaking studies since many GNN trustworthiness issues can be alleviated by capturing the underlying data causality rather than superficial correlations. In this survey, we comprehensively review recent research efforts on Causality-Inspired GNNs (CIGNNs). Specifically, we first employ causal tools to analyze the primary trustworthiness risks of existing GNNs, underscoring the necessity for GNNs to comprehend the causal mechanisms within graph data. Moreover, we introduce a taxonomy of CIGNNs based on the type of causal learning capability they are equipped with, i.e., causal reasoning and causal representation learning. Besides, we systematically introduce typical methods within each category and discuss how they mitigate trustworthiness risks. Finally, we summarize useful resources and discuss several future directions, hoping to shed light on new research opportunities in this emerging field. The representative papers, along with open-source data and codes, are available in https://github.com/usail-hkust/Causality-Inspired-GNNs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、さまざまなグラフ構造化データ内の複雑な依存関係をキャプチャする強力な表現学習ツールとして登場した。
幅広いグラフマイニングタスクの成功にもかかわらず、GNNは、分布シフトへの感受性、特定の人口への偏見、説明可能性の欠如など、彼らの信頼性に関する深刻な懸念を提起している。
近年、因果学習技術をGNNに組み込むことで、表面的相関ではなく基礎となるデータ因果関係を捉えることで、多くのGNNの信頼性の問題が軽減されるため、多くの基礎研究が引き起こされている。
本稿では,CIGNN(Causality-Inspired GNNs)に関する最近の研究成果を概観する。
具体的には、まず、既存のGNNの主要な信頼性リスクを分析するために因果的ツールを使用し、グラフデータ内の因果的メカニズムを理解するために、GNNが必要であることを示す。
さらに,CIGNNが備える因果的学習能力,すなわち因果的推論と因果的表現学習に基づいて,CIGNNの分類を導入する。
さらに,各カテゴリの典型的な手法を体系的に導入し,信頼性リスクを軽減する方法について論じる。
最後に、この新興分野における新たな研究の機会に光を当てて、有用なリソースを要約し、今後の方向性を議論する。
代表論文は、オープンソースデータとコードとともに、https://github.com/usail-hkust/Causality-Inspired-GNNsで公開されている。
関連論文リスト
- Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Rethinking Causal Relationships Learning in Graph Neural Networks [24.7962807148905]
本稿では,GNNの因果学習能力を高めるために,軽量で適応可能なGNNモジュールを提案する。
提案モジュールの有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-12-15T08:54:32Z) - Exploring Causal Learning through Graph Neural Networks: An In-depth
Review [12.936700685252145]
因果関係の研究に用いられている様々な最先端のGNN手法を包含する新しい分類法を提案する。
GNNは、その因果領域における応用に基づいてさらに分類される。
このレビューは、多様な分野にわたる因果学習の適用にも触れている。
論文 参考訳(メタデータ) (2023-11-25T10:46:06Z) - Information Flow in Graph Neural Networks: A Clinical Triage Use Case [49.86931948849343]
グラフニューラルネットワーク(GNN)は、マルチモーダルグラフとマルチリレーショナルグラフを処理する能力によって、医療やその他の領域で人気を集めている。
GNNにおける埋め込み情報のフローが知識グラフ(KG)におけるリンクの予測に与える影響について検討する。
以上の結果から,ドメイン知識をGNN接続に組み込むことで,KGと同じ接続を使用する場合や,制約のない埋め込み伝搬を行う場合よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-09-12T09:18:12Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。