論文の概要: Global Concept-Based Interpretability for Graph Neural Networks via
Neuron Analysis
- arxiv url: http://arxiv.org/abs/2208.10609v1
- Date: Mon, 22 Aug 2022 21:30:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 12:30:11.881848
- Title: Global Concept-Based Interpretability for Graph Neural Networks via
Neuron Analysis
- Title(参考訳): ニューロン解析によるグラフニューラルネットワークのグローバル概念に基づく解釈可能性
- Authors: Han Xuanyuan, Pietro Barbiero, Dobrik Georgiev, Lucie Charlotte
Magister, Pietro Li\'o
- Abstract要約: グラフニューラルネットワーク(GNN)は、さまざまなグラフ関連タスクに非常に効果的である。
解釈性と透明性が欠如している。
現在の説明可能性のアプローチは一般的にローカルで、GNNをブラックボックスとして扱う。
本稿では,ニューロンレベルの概念を用いたGNNのグローバルな説明を創出するための新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) are highly effective on a variety of
graph-related tasks; however, they lack interpretability and transparency.
Current explainability approaches are typically local and treat GNNs as
black-boxes. They do not look inside the model, inhibiting human trust in the
model and explanations. Motivated by the ability of neurons to detect
high-level semantic concepts in vision models, we perform a novel analysis on
the behaviour of individual GNN neurons to answer questions about GNN
interpretability, and propose new metrics for evaluating the interpretability
of GNN neurons. We propose a novel approach for producing global explanations
for GNNs using neuron-level concepts to enable practitioners to have a
high-level view of the model. Specifically, (i) to the best of our knowledge,
this is the first work which shows that GNN neurons act as concept detectors
and have strong alignment with concepts formulated as logical compositions of
node degree and neighbourhood properties; (ii) we quantitatively assess the
importance of detected concepts, and identify a trade-off between training
duration and neuron-level interpretability; (iii) we demonstrate that our
global explainability approach has advantages over the current state-of-the-art
-- we can disentangle the explanation into individual interpretable concepts
backed by logical descriptions, which reduces potential for bias and improves
user-friendliness.
- Abstract(参考訳): グラフニューラルネットワーク(gnn)は、さまざまなグラフ関連タスクに非常に有効であるが、解釈可能性や透明性に欠ける。
現在の説明可能性のアプローチは通常ローカルで、GNNをブラックボックスとして扱う。
モデルの内部には見えず、モデルと説明に対する人間の信頼を阻害する。
視覚モデルにおける高レベルセマンティック概念を検出するニューロンの能力により、個々のGNNニューロンの振る舞いを新しい分析により解析し、GNNの解釈可能性に関する疑問に答え、GNNニューロンの解釈可能性を評価するための新しい指標を提案する。
本稿では,ニューロンレベルの概念を用いて,GNNのグローバルな説明を生成する手法を提案する。
具体的には
これは、GNNニューロンが概念検出器として機能し、ノード次数と近傍特性の論理的組成として定式化された概念と強い整合性を持つことを示す最初の研究である。
二 検出された概念の重要性を定量的に評価し、トレーニング期間とニューロンレベルの解釈可能性とのトレードオフを識別する。
論理的な説明によって裏打ちされた個々の解釈可能な概念に説明を内包することができ、バイアスの可能性を低減し、ユーザーフレンドリー性を向上させることができる。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - ConceptLens: from Pixels to Understanding [1.3466710708566176]
ConceptLensは、隠れたニューロンの活性化を可視化することによって、ディープニューラルネットワーク(DNN)の複雑な動作を照明する革新的なツールである。
ディープラーニングとシンボリックな方法を統合することで、ConceptLensは、ニューロンの活性化を引き起こすものを理解するユニークな方法を提供する。
論文 参考訳(メタデータ) (2024-10-04T20:49:12Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Automated Natural Language Explanation of Deep Visual Neurons with Large
Models [43.178568768100305]
本稿では,大きな基礎モデルを持つニューロンの意味的説明を生成するための,新しいポストホックフレームワークを提案する。
我々のフレームワークは、様々なモデルアーキテクチャやデータセット、自動化されたスケーラブルなニューロン解釈と互換性があるように設計されています。
論文 参考訳(メタデータ) (2023-10-16T17:04:51Z) - A Survey on Explainability of Graph Neural Networks [4.612101932762187]
グラフニューラルネットワーク(GNN)は、グラフベースの強力なディープラーニングモデルである。
本調査は,GNNの既存の説明可能性技術の概要を概観することを目的としている。
論文 参考訳(メタデータ) (2023-06-02T23:36:49Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - A Survey of Explainable Graph Neural Networks: Taxonomy and Evaluation
Metrics [8.795591344648294]
本稿では,説明可能なグラフニューラルネットワークに着目し,説明可能な手法を用いて分類する。
我々は,GNNの解説に共通する性能指標を提供し,今後の研究の方向性を指摘する。
論文 参考訳(メタデータ) (2022-07-26T01:45:54Z) - Explainability in Graph Neural Networks: An Experimental Survey [12.440636971075977]
グラフ表現学習のためのグラフニューラルネットワーク(GNN)が広く開発されている。
GNNは、その基盤となるメカニズムを理解できないため、ブラックボックスの問題に悩まされる。
GNNによる意思決定を説明するために、いくつかのGNN説明可能性法が提案されている。
論文 参考訳(メタデータ) (2022-03-17T11:25:41Z) - A Chain Graph Interpretation of Real-World Neural Networks [58.78692706974121]
本稿では,NNを連鎖グラフ(CG)、フィードフォワードを近似推論手法として識別する別の解釈を提案する。
CG解釈は、確率的グラフィカルモデルのリッチな理論的枠組みの中で、各NNコンポーネントの性質を規定する。
我々は,CG解釈が様々なNN技術に対する新しい理論的支援と洞察を提供することを示す具体例を実例で示す。
論文 参考訳(メタデータ) (2020-06-30T14:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。