論文の概要: A Survey on Explainability of Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2306.01958v1
- Date: Fri, 2 Jun 2023 23:36:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 21:14:35.418595
- Title: A Survey on Explainability of Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークの説明可能性に関する調査
- Authors: Jaykumar Kakkad, Jaspal Jannu, Kartik Sharma, Charu Aggarwal, Sourav
Medya
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフベースの強力なディープラーニングモデルである。
本調査は,GNNの既存の説明可能性技術の概要を概観することを目的としている。
- 参考スコア(独自算出の注目度): 4.612101932762187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) are powerful graph-based deep-learning models
that have gained significant attention and demonstrated remarkable performance
in various domains, including natural language processing, drug discovery, and
recommendation systems. However, combining feature information and
combinatorial graph structures has led to complex non-linear GNN models.
Consequently, this has increased the challenges of understanding the workings
of GNNs and the underlying reasons behind their predictions. To address this,
numerous explainability methods have been proposed to shed light on the inner
mechanism of the GNNs. Explainable GNNs improve their security and enhance
trust in their recommendations. This survey aims to provide a comprehensive
overview of the existing explainability techniques for GNNs. We create a novel
taxonomy and hierarchy to categorize these methods based on their objective and
methodology. We also discuss the strengths, limitations, and application
scenarios of each category. Furthermore, we highlight the key evaluation
metrics and datasets commonly used to assess the explainability of GNNs. This
survey aims to assist researchers and practitioners in understanding the
existing landscape of explainability methods, identifying gaps, and fostering
further advancements in interpretable graph-based machine learning.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は強力なグラフベースのディープラーニングモデルであり、自然言語処理、薬物発見、レコメンデーションシステムなど、さまざまな領域で顕著なパフォーマンスを示している。
しかし、特徴情報と組合せグラフ構造の組み合わせは、複雑な非線形gnnモデルにつながった。
その結果、GNNの動作と、その予測の背後にある根本的な理由を理解するという課題が増大した。
これを解決するために、GNNの内部メカニズムに光を放つための多くの説明可能性法が提案されている。
説明可能なGNNはセキュリティを改善し、レコメンデーションの信頼を高める。
本調査は,GNNの既存の説明可能性技術の概要を概観することを目的としている。
我々はこれらの手法をその目的と方法論に基づいて分類する新しい分類と階層を作成する。
また、各カテゴリの長所、制限、アプリケーションシナリオについても論じます。
さらに、GNNの説明可能性を評価するためによく使われる重要な評価指標とデータセットを強調した。
この調査は、研究者や実践者が既存の説明可能性手法の状況を理解し、ギャップを特定し、解釈可能なグラフベース機械学習のさらなる進歩を促進することを目的としている。
関連論文リスト
- Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Information Flow in Graph Neural Networks: A Clinical Triage Use Case [49.86931948849343]
グラフニューラルネットワーク(GNN)は、マルチモーダルグラフとマルチリレーショナルグラフを処理する能力によって、医療やその他の領域で人気を集めている。
GNNにおける埋め込み情報のフローが知識グラフ(KG)におけるリンクの予測に与える影響について検討する。
以上の結果から,ドメイン知識をGNN接続に組み込むことで,KGと同じ接続を使用する場合や,制約のない埋め込み伝搬を行う場合よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-09-12T09:18:12Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - A Survey of Explainable Graph Neural Networks: Taxonomy and Evaluation
Metrics [8.795591344648294]
本稿では,説明可能なグラフニューラルネットワークに着目し,説明可能な手法を用いて分類する。
我々は,GNNの解説に共通する性能指標を提供し,今後の研究の方向性を指摘する。
論文 参考訳(メタデータ) (2022-07-26T01:45:54Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - Edge-Level Explanations for Graph Neural Networks by Extending
Explainability Methods for Convolutional Neural Networks [33.20913249848369]
グラフニューラルネットワーク(GNN)は、グラフデータを入力として扱うディープラーニングモデルであり、トラフィック予測や分子特性予測といった様々なタスクに適用される。
本稿では,CNNに対する説明可能性の手法として,LIME(Local Interpretable Model-Agnostic Explanations)やGradient-Based Saliency Maps,Gradient-Weighted Class Activation Mapping(Grad-CAM)をGNNに拡張する。
実験結果から,LIMEに基づくアプローチは実環境における複数のタスクに対する最も効率的な説明可能性手法であり,その状態においても優れていたことが示唆された。
論文 参考訳(メタデータ) (2021-11-01T06:27:29Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - SEEN: Sharpening Explanations for Graph Neural Networks using
Explanations from Neighborhoods [0.0]
本稿では,補助的説明の集約によるノード分類タスクの説明品質の向上手法を提案する。
SEENを適用するにはグラフを変更する必要はなく、さまざまな説明可能性のテクニックで使用することができる。
与えられたグラフからモチーフ参加ノードをマッチングする実験では、説明精度が最大12.71%向上した。
論文 参考訳(メタデータ) (2021-06-16T03:04:46Z) - Explainability in Graph Neural Networks: A Taxonomic Survey [42.95574260417341]
グラフニューラルネットワーク(gnns)とその説明能力は急速に発展している。
GNNの説明可能性メソッドの統一された処理も、評価のための標準的なベンチマークとテストベッドもありません。
本研究はgnn説明可能性の統一的な方法論的処理と評価のための標準テストベッドを提供する。
論文 参考訳(メタデータ) (2020-12-31T04:34:27Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。