論文の概要: Everybody Needs a Little HELP: Explaining Graphs via Hierarchical
Concepts
- arxiv url: http://arxiv.org/abs/2311.15112v2
- Date: Sat, 2 Dec 2023 10:44:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 20:59:38.426442
- Title: Everybody Needs a Little HELP: Explaining Graphs via Hierarchical
Concepts
- Title(参考訳): 誰もが小さなHELPを必要としている:階層的概念によるグラフの説明
- Authors: Jonas J\"ur{\ss}, Lucie Charlotte Magister, Pietro Barbiero, Pietro
Li\`o, Nikola Simidjievski
- Abstract要約: グラフニューラルネットワーク(GNN)は、薬物発見、ソーシャルネットワーク分析、旅行時間推定などの領域でブレークスルーをもたらしている。
人間の信頼を妨げる解釈性が欠如しているため、高い判断を下すような設定にデプロイされる。
HELPは、異なるGNN層の概念が後続のステップで新しい概念にどのように構成されるかを明らかにする、本質的に解釈可能な新しいグラフプーリング手法である。
- 参考スコア(独自算出の注目度): 12.365451175795338
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have led to major breakthroughs in a variety of
domains such as drug discovery, social network analysis, and travel time
estimation. However, they lack interpretability which hinders human trust and
thereby deployment to settings with high-stakes decisions. A line of
interpretable methods approach this by discovering a small set of relevant
concepts as subgraphs in the last GNN layer that together explain the
prediction. This can yield oversimplified explanations, failing to explain the
interaction between GNN layers. To address this oversight, we provide HELP
(Hierarchical Explainable Latent Pooling), a novel, inherently interpretable
graph pooling approach that reveals how concepts from different GNN layers
compose to new ones in later steps. HELP is more than 1-WL expressive and is
the first non-spectral, end-to-end-learnable, hierarchical graph pooling method
that can learn to pool a variable number of arbitrary connected components. We
empirically demonstrate that it performs on-par with standard GCNs and popular
pooling methods in terms of accuracy while yielding explanations that are
aligned with expert knowledge in the domains of chemistry and social networks.
In addition to a qualitative analysis, we employ concept completeness scores as
well as concept conformity, a novel metric to measure the noise in discovered
concepts, quantitatively verifying that the discovered concepts are
significantly easier to fully understand than those from previous work. Our
work represents a first step towards an understanding of graph neural networks
that goes beyond a set of concepts from the final layer and instead explains
the complex interplay of concepts on different levels.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、薬物発見、ソーシャルネットワーク分析、旅行時間推定など、さまざまな領域において大きなブレークスルーをもたらしている。
しかし、人間の信頼を妨げる解釈可能性がなく、高い判断力を持つ設定にデプロイする。
一連の解釈可能な手法は、予測を説明する最後のgnn層で、関連する概念の小さな集合をサブグラフとして発見することで、これをアプローチする。
これにより、GNN層間の相互作用を説明できず、単純化された説明が得られる。
HELP(Hierarchical Explainable Latent Pooling)は、異なるGNN層の概念が後続のステップでどのように構成されるかを明らかにする、本質的に解釈可能なグラフプーリング手法である。
HELPは1-WL以上の表現力を持ち、任意の連結成分の可変数のプーリングを学ぶことができる最初の非スペクトル、エンドツーエンド学習可能、階層的なグラフプーリング法である。
従来のgcnや一般的なプーリング手法とほぼ同等の精度で動作し、化学やソーシャルネットワークの分野における専門知識と整合した説明を得られることを実証的に実証する。
質的分析に加えて, 概念完全性スコアと, 発見概念の雑音を測定するための新しい指標である概念適合性を用いて, 発見概念が従来の研究よりも十分に理解しやすいことを定量的に検証した。
私たちの研究は、最終レイヤから概念のセットを越えて、異なるレベルの概念の複雑な相互作用を説明するグラフニューラルネットワークを理解するための第一歩を示しています。
関連論文リスト
- DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Explaining the Explainers in Graph Neural Networks: a Comparative Study [23.483694828580894]
グラフニューラルネットワーク(GNN)は多くの科学・工学分野に広く応用されている。
近年、GNNの解説者が登場し始めており、多くの手法が他のドメインから導入されている。
論文 参考訳(メタデータ) (2022-10-27T10:25:51Z) - Toward Multiple Specialty Learners for Explaining GNNs via Online
Knowledge Distillation [0.17842332554022688]
グラフニューラルネットワーク(GNN)は、多くのアプリケーションやシステムにおいてますます普及し、それらの予測を説明する必要がある。
そこで我々はSCALEという新しいGNN説明フレームワークを提案する。
トレーニングにおいて、ブラックボックスGNNモデルは、オンライン知識蒸留パラダイムに基づいて学習者をガイドする。
具体的には、エッジマスキングと再起動手順によるランダムウォークを実行し、グラフレベルとノードレベルの予測の構造的説明を提供する。
論文 参考訳(メタデータ) (2022-10-20T08:44:57Z) - Global Concept-Based Interpretability for Graph Neural Networks via
Neuron Analysis [0.0]
グラフニューラルネットワーク(GNN)は、さまざまなグラフ関連タスクに非常に効果的である。
解釈性と透明性が欠如している。
現在の説明可能性のアプローチは一般的にローカルで、GNNをブラックボックスとして扱う。
本稿では,ニューロンレベルの概念を用いたGNNのグローバルな説明を創出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-22T21:30:55Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - GCExplainer: Human-in-the-Loop Concept-based Explanations for Graph
Neural Networks [0.3441021278275805]
GCExplainerは、グラフニューラルネットワーク(GNN)のためのグローバルな概念に基づく説明のポストホック発見と抽出のための教師なしのアプローチである。
提案手法は5つのノード分類データセットと2つのグラフ分類データセット上で成功し,人間をループに配置することで高品質な概念表現を発見し,抽出できることを実証した。
論文 参考訳(メタデータ) (2021-07-25T20:52:48Z) - A Peek Into the Reasoning of Neural Networks: Interpreting with
Structural Visual Concepts [38.215184251799194]
直感的な構造的視覚概念で分類NNを解釈するフレームワーク(VRX)を提案する。
ナレッジ蒸留によって、VRXはNNの推論プロセスを模倣する一歩を踏み出すことができることを示す。
論文 参考訳(メタデータ) (2021-05-01T15:47:42Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - A Chain Graph Interpretation of Real-World Neural Networks [58.78692706974121]
本稿では,NNを連鎖グラフ(CG)、フィードフォワードを近似推論手法として識別する別の解釈を提案する。
CG解釈は、確率的グラフィカルモデルのリッチな理論的枠組みの中で、各NNコンポーネントの性質を規定する。
我々は,CG解釈が様々なNN技術に対する新しい理論的支援と洞察を提供することを示す具体例を実例で示す。
論文 参考訳(メタデータ) (2020-06-30T14:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。