論文の概要: Survey on Trustworthy Graph Neural Networks: From A Causal Perspective
- arxiv url: http://arxiv.org/abs/2312.12477v1
- Date: Tue, 19 Dec 2023 13:26:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 18:27:42.069350
- Title: Survey on Trustworthy Graph Neural Networks: From A Causal Perspective
- Title(参考訳): 信頼できるグラフニューラルネットワークに関する調査 : 因果的視点から
- Authors: Wenzhao Jiang, Hao Liu and Hui Xiong
- Abstract要約: グラフニューラルネットワーク(GNN)は、強力な表現学習ツールとして登場した。
GNNは信頼度に深刻な懸念を抱いている。
因果学習技術をGNNに統合することは、多くの画期的な研究を引き起こした。
- 参考スコア(独自算出の注目度): 26.35596993740845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as powerful representation learning
tools for capturing complex dependencies within diverse graph-structured data.
Despite their success in a wide range of graph mining tasks, GNNs have raised
serious concerns regarding their trustworthiness, including susceptibility to
distribution shift, biases towards certain populations, and lack of
explainability. Recently, integrating causal learning techniques into GNNs has
sparked numerous ground-breaking studies since most of the trustworthiness
issues can be alleviated by capturing the underlying data causality rather than
superficial correlations. In this survey, we provide a comprehensive review of
recent research efforts on causality-inspired GNNs. Specifically, we first
present the key trustworthy risks of existing GNN models through the lens of
causality. Moreover, we introduce a taxonomy of Causality-Inspired GNNs
(CIGNNs) based on the type of causal learning capability they are equipped
with, i.e., causal reasoning and causal representation learning. Besides, we
systematically discuss typical methods within each category and demonstrate how
they mitigate trustworthiness risks. Finally, we summarize useful resources and
discuss several future directions, hoping to shed light on new research
opportunities in this emerging field. The representative papers, along with
open-source data and codes, are available in
https://github.com/usail-hkust/Causality-Inspired-GNNs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、さまざまなグラフ構造化データ内の複雑な依存関係をキャプチャする強力な表現学習ツールとして登場した。
幅広いグラフマイニングタスクの成功にもかかわらず、GNNは、分布シフトへの感受性、特定の人口への偏見、説明可能性の欠如など、彼らの信頼性に関する深刻な懸念を提起している。
最近のgnnへの因果学習技術の統合は、表面的な相関ではなく、基礎となるデータ因果関係を捉えることで、信頼性の問題の大半を軽減できるため、多くの画期的な研究のきっかけとなっている。
本調査では、因果性に着想を得たGNNに関する最近の研究成果を概観する。
具体的には、まず、因果関係のレンズを通して既存のGNNモデルの重要なリスクを提示する。
さらに,因果的推論と因果的表現学習という,それらが備える因果的学習能力のタイプに基づいて,因果性にインスパイアされたGNN(CIGNN)の分類を導入する。
さらに,各カテゴリの典型的な手法を体系的に議論し,信頼性リスクの軽減方法を示す。
最後に, 有用な資源を要約し, 今後の方向性を議論し, 新興分野における新たな研究の機会を浮き彫りにしたい。
代表論文はオープンソースデータとコードとともにhttps://github.com/usail-hkust/Causality-Inspired-GNNsで公開されている。
関連論文リスト
- Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Rethinking Causal Relationships Learning in Graph Neural Networks [24.7962807148905]
本稿では,GNNの因果学習能力を高めるために,軽量で適応可能なGNNモジュールを提案する。
提案モジュールの有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-12-15T08:54:32Z) - Exploring Causal Learning through Graph Neural Networks: An In-depth
Review [12.936700685252145]
因果関係の研究に用いられている様々な最先端のGNN手法を包含する新しい分類法を提案する。
GNNは、その因果領域における応用に基づいてさらに分類される。
このレビューは、多様な分野にわたる因果学習の適用にも触れている。
論文 参考訳(メタデータ) (2023-11-25T10:46:06Z) - Information Flow in Graph Neural Networks: A Clinical Triage Use Case [49.86931948849343]
グラフニューラルネットワーク(GNN)は、マルチモーダルグラフとマルチリレーショナルグラフを処理する能力によって、医療やその他の領域で人気を集めている。
GNNにおける埋め込み情報のフローが知識グラフ(KG)におけるリンクの予測に与える影響について検討する。
以上の結果から,ドメイン知識をGNN接続に組み込むことで,KGと同じ接続を使用する場合や,制約のない埋め込み伝搬を行う場合よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-09-12T09:18:12Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。