論文の概要: Demystifying Graph Neural Network Explanations
- arxiv url: http://arxiv.org/abs/2111.12984v1
- Date: Thu, 25 Nov 2021 09:37:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 17:20:38.247708
- Title: Demystifying Graph Neural Network Explanations
- Title(参考訳): グラフニューラルネットワークの非神秘化
- Authors: Anna Himmelhuber, Mitchell Joblin, Martin Ringsquandl and Thomas
Runkler
- Abstract要約: GNNの意思決定プロセスに関する洞察を提供するために、摂動に基づくいくつかのアプローチが開発されている。
筆者らは,(1)合成データ生成プロセス,(2)評価指標,(3)説明の最後の提示の3分野において,共通の落とし穴を識別する。
- 参考スコア(独自算出の注目度): 1.5661920010658623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) are quickly becoming the standard approach for
learning on graph structured data across several domains, but they lack
transparency in their decision-making. Several perturbation-based approaches
have been developed to provide insights into the decision making process of
GNNs. As this is an early research area, the methods and data used to evaluate
the generated explanations lack maturity. We explore these existing approaches
and identify common pitfalls in three main areas: (1) synthetic data generation
process, (2) evaluation metrics, and (3) the final presentation of the
explanation. For this purpose, we perform an empirical study to explore these
pitfalls along with their unintended consequences and propose remedies to
mitigate their effects.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、いくつかのドメインにわたるグラフ構造化データの学習において、急速に標準的なアプローチになりつつある。
GNNの意思決定プロセスに関する洞察を提供するために、摂動に基づくいくつかのアプローチが開発されている。
初期の研究領域であるため、生成された説明を評価するために使用される方法やデータは成熟していない。
これらの既存のアプローチを検討し,(1)合成データ生成プロセス,(2)評価指標,(3)説明の最終的な提示という3つの主な分野における共通の落とし穴を明らかにする。
この目的のために,これらの落とし穴と意図しない結果について実証的な研究を行い,その影響を緩和するための治療を提案する。
関連論文リスト
- Factorized Explainer for Graph Neural Networks [7.382632811417645]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する能力によって、注目を集めている。
GNN予測を理解するために、ポストホックなインスタンスレベルの説明法が提案されている。
理論的性能保証を伴う新しい因子化説明モデルを提案する。
論文 参考訳(メタデータ) (2023-12-09T15:29:45Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Explaining the Explainers in Graph Neural Networks: a Comparative Study [13.244350378586695]
グラフニューラルネットワーク(GNN)は多くの科学・工学分野に広く応用されている。
近年、GNNの解説者が登場し始めており、多くの手法が他のドメインから導入されている。
論文 参考訳(メタデータ) (2022-10-27T10:25:51Z) - Handling Distribution Shifts on Graphs: An Invariance Perspective [77.14319095965058]
グラフ上のノードレベルの予測にOOD問題を定式化する。
そこで我々は,探索から抽出までのリスク最小化という新たなドメイン不変学習手法を開発した。
理論的に有効なOOD解の保証を示すことによって,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-05T02:31:01Z) - On Recoverability of Graph Neural Network Representations [9.02766568914452]
本稿では,GNNにおける情報集約と密接な関係を持つリカバリ可能性の概念を提案する。
様々なデータセットおよび異なるGNNアーキテクチャに関する実験結果を通じて、推定された回復可能性とアグリゲーション法表現性とグラフスカラー化品質の関係を実証する。
提案手法は、上記の問題の根源を理解する上で不可欠なツールとなり、それらを克服するGNN設計に繋がる可能性があると信じている。
論文 参考訳(メタデータ) (2022-01-30T15:22:29Z) - Tackling Oversmoothing of GNNs with Contrastive Learning [35.88575306925201]
グラフニューラルネットワーク(GNN)は、グラフデータと表現学習能力の包括的な関係を統合する。
オーバースムーシングはノードの最終的な表現を識別不能にし、ノード分類とリンク予測性能を劣化させる。
本稿では,TGCL(Topology-Guided Graph Contrastive Layer)を提案する。
論文 参考訳(メタデータ) (2021-10-26T15:56:16Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。