論文の概要: Demystifying Graph Neural Network Explanations
- arxiv url: http://arxiv.org/abs/2111.12984v1
- Date: Thu, 25 Nov 2021 09:37:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 17:20:38.247708
- Title: Demystifying Graph Neural Network Explanations
- Title(参考訳): グラフニューラルネットワークの非神秘化
- Authors: Anna Himmelhuber, Mitchell Joblin, Martin Ringsquandl and Thomas
Runkler
- Abstract要約: GNNの意思決定プロセスに関する洞察を提供するために、摂動に基づくいくつかのアプローチが開発されている。
筆者らは,(1)合成データ生成プロセス,(2)評価指標,(3)説明の最後の提示の3分野において,共通の落とし穴を識別する。
- 参考スコア(独自算出の注目度): 1.5661920010658623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) are quickly becoming the standard approach for
learning on graph structured data across several domains, but they lack
transparency in their decision-making. Several perturbation-based approaches
have been developed to provide insights into the decision making process of
GNNs. As this is an early research area, the methods and data used to evaluate
the generated explanations lack maturity. We explore these existing approaches
and identify common pitfalls in three main areas: (1) synthetic data generation
process, (2) evaluation metrics, and (3) the final presentation of the
explanation. For this purpose, we perform an empirical study to explore these
pitfalls along with their unintended consequences and propose remedies to
mitigate their effects.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、いくつかのドメインにわたるグラフ構造化データの学習において、急速に標準的なアプローチになりつつある。
GNNの意思決定プロセスに関する洞察を提供するために、摂動に基づくいくつかのアプローチが開発されている。
初期の研究領域であるため、生成された説明を評価するために使用される方法やデータは成熟していない。
これらの既存のアプローチを検討し,(1)合成データ生成プロセス,(2)評価指標,(3)説明の最終的な提示という3つの主な分野における共通の落とし穴を明らかにする。
この目的のために,これらの落とし穴と意図しない結果について実証的な研究を行い,その影響を緩和するための治療を提案する。
関連論文リスト
- Deep Graph Anomaly Detection: A Survey and New Perspectives [86.84201183954016]
グラフ異常検出(GAD)は、異常なグラフインスタンス(ノード、エッジ、サブグラフ、グラフ)を特定することを目的とする。
ディープラーニングアプローチ、特にグラフニューラルネットワーク(GNN)は、GADにとって有望なパラダイムとして現れています。
論文 参考訳(メタデータ) (2024-09-16T03:05:11Z) - xAI-Drop: Don't Use What You Cannot Explain [23.33477769275026]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための主要なパラダイムとして登場した。
GNNは、一般化の欠如や解釈可能性の低下といった課題に直面している。
トポロジカルレベル降下正則化器であるxAI-Dropを導入する。
論文 参考訳(メタデータ) (2024-07-29T14:53:45Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Explaining the Explainers in Graph Neural Networks: a Comparative Study [23.483694828580894]
グラフニューラルネットワーク(GNN)は多くの科学・工学分野に広く応用されている。
近年、GNNの解説者が登場し始めており、多くの手法が他のドメインから導入されている。
論文 参考訳(メタデータ) (2022-10-27T10:25:51Z) - Handling Distribution Shifts on Graphs: An Invariance Perspective [78.31180235269035]
我々は、グラフ上のOOD問題を定式化し、新しい不変学習手法である探索・拡張リスク最小化(EERM)を開発する。
EERMは、複数の仮想環境からのリスクの分散を最大化するために、敵対的に訓練された複数のコンテキストエクスプローラーを利用する。
理論的に有効なOOD解の保証を示すことによって,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-05T02:31:01Z) - On Recoverability of Graph Neural Network Representations [9.02766568914452]
本稿では,GNNにおける情報集約と密接な関係を持つリカバリ可能性の概念を提案する。
様々なデータセットおよび異なるGNNアーキテクチャに関する実験結果を通じて、推定された回復可能性とアグリゲーション法表現性とグラフスカラー化品質の関係を実証する。
提案手法は、上記の問題の根源を理解する上で不可欠なツールとなり、それらを克服するGNN設計に繋がる可能性があると信じている。
論文 参考訳(メタデータ) (2022-01-30T15:22:29Z) - Tackling Oversmoothing of GNNs with Contrastive Learning [35.88575306925201]
グラフニューラルネットワーク(GNN)は、グラフデータと表現学習能力の包括的な関係を統合する。
オーバースムーシングはノードの最終的な表現を識別不能にし、ノード分類とリンク予測性能を劣化させる。
本稿では,TGCL(Topology-Guided Graph Contrastive Layer)を提案する。
論文 参考訳(メタデータ) (2021-10-26T15:56:16Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。