論文の概要: Semantic Interpretation and Validation of Graph Attention-based
Explanations for GNN Models
- arxiv url: http://arxiv.org/abs/2308.04220v2
- Date: Fri, 20 Oct 2023 20:13:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 07:48:18.985302
- Title: Semantic Interpretation and Validation of Graph Attention-based
Explanations for GNN Models
- Title(参考訳): GNNモデルにおけるグラフ注意に基づく説明の意味解釈と検証
- Authors: Efimia Panagiotaki, Daniele De Martini, Lars Kunze
- Abstract要約: 本稿では,グラフニューラルネットワーク(GNN)に基づくモデルの説明可能性を高めるために,意味的注意力を用いた手法を提案する。
本研究は,注意分布のばらつきを意味的にソートした特徴集合と関連づけることで,既存の注意グラフ説明可能性手法を拡張した。
提案手法をライダーポイントクラウド推定モデルに適用し,性能向上に寄与する主要なセマンティッククラスを同定する。
- 参考スコア(独自算出の注目度): 9.260186030255081
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a methodology for investigating the use of semantic
attention to enhance the explainability of Graph Neural Network (GNN)-based
models. Graph Deep Learning (GDL) has emerged as a promising field for tasks
like scene interpretation, leveraging flexible graph structures to concisely
describe complex features and relationships. As traditional explainability
methods used in eXplainable AI (XAI) cannot be directly applied to such
structures, graph-specific approaches are introduced. Attention has been
previously employed to estimate the importance of input features in GDL,
however, the fidelity of this method in generating accurate and consistent
explanations has been questioned. To evaluate the validity of using attention
weights as feature importance indicators, we introduce semantically-informed
perturbations and correlate predicted attention weights with the accuracy of
the model. Our work extends existing attention-based graph explainability
methods by analysing the divergence in the attention distributions in relation
to semantically sorted feature sets and the behaviour of a GNN model,
efficiently estimating feature importance. We apply our methodology on a lidar
pointcloud estimation model successfully identifying key semantic classes that
contribute to enhanced performance, effectively generating reliable post-hoc
semantic explanations.
- Abstract(参考訳): 本稿では,グラフニューラルネットワーク(GNN)に基づくモデルの説明可能性を高めるために,意味的注意力を用いた手法を提案する。
Graph Deep Learning(GDL)は、複雑な特徴や関係を簡潔に記述するために柔軟なグラフ構造を活用する、シーン解釈のようなタスクのための有望な分野として登場した。
eXplainable AI(XAI)で使用される従来の説明可能性手法は、そのような構造に直接適用できないため、グラフ固有のアプローチが導入された。
従来,GDLにおける入力特徴の重要性を推定するために用いられてきたが,正確で一貫した説明を生成する上での本手法の有効性は疑問視されている。
注意重みを特徴重要度指標として用いる妥当性を評価するために,意味的インフォームドな摂動を導入し,予測注意重みとモデルの精度を相関させる。
本研究は,特徴集合のセマンティックなソートとGNNモデルの振る舞いに関する注意分布のばらつきを分析し,特徴重要度を効率的に推定することで,既存の注意グラフ説明可能性手法を拡張した。
提案手法をlidar pointcloud推定モデルに適用し,性能向上に寄与する重要セマンティクスクラスを同定し,信頼性の高いポストホックセマンティクス記述を効果的に生成する。
関連論文リスト
- GraphGI:A GNN Explanation Method using Game Interaction [5.149896909638598]
グラフニューラルネットワーク(GNN)は、様々な領域で広く利用されている。
現在のグラフ説明技術は、キーノードやエッジの識別に重点を置いており、モデル予測を駆動する重要なデータ機能に寄与している。
本稿では,対話力の高い連立関係を識別し,説明文として提示する新しい説明法GraphGIを提案する。
論文 参考訳(メタデータ) (2024-09-24T03:24:31Z) - Kolmogorov-Arnold Graph Neural Networks [2.4005219869876453]
グラフニューラルネットワーク(GNN)は、ネットワークのようなデータから学習する上で優れるが、解釈性に欠けることが多い。
本稿では,GKAN(Graph Kolmogorov-Arnold Network)を提案する。
論文 参考訳(メタデータ) (2024-06-26T13:54:59Z) - Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z) - Factorized Explainer for Graph Neural Networks [7.382632811417645]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する能力によって、注目を集めている。
GNN予測を理解するために、ポストホックなインスタンスレベルの説明法が提案されている。
理論的性能保証を伴う新しい因子化説明モデルを提案する。
論文 参考訳(メタデータ) (2023-12-09T15:29:45Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Structural Explanations for Graph Neural Networks using HSIC [21.929646888419914]
グラフニューラルネットワーク(GNN)は、グラフィカルなタスクをエンドツーエンドで処理するニューラルネットワークの一種である。
GNNの複雑なダイナミクスは、グラフの特徴のどの部分が予測に強く寄与しているかを理解するのを困難にしている。
本研究では,グラフ内の重要な構造を検出するために,フレキシブルモデルに依存しない説明法を提案する。
論文 参考訳(メタデータ) (2023-02-04T09:46:47Z) - Causally-guided Regularization of Graph Attention Improves
Generalizability [69.09877209676266]
本稿では,グラフアテンションネットワークのための汎用正規化フレームワークであるCARを紹介する。
メソッド名は、グラフ接続に対するアクティブ介入の因果効果とアテンションメカニズムを一致させる。
ソーシャル・メディア・ネットワーク規模のグラフでは、CAR誘導グラフ再構成アプローチにより、グラフの畳み込み手法のスケーラビリティとグラフの注意力の向上を両立させることができる。
論文 参考訳(メタデータ) (2022-10-20T01:29:10Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - SEEN: Sharpening Explanations for Graph Neural Networks using
Explanations from Neighborhoods [0.0]
本稿では,補助的説明の集約によるノード分類タスクの説明品質の向上手法を提案する。
SEENを適用するにはグラフを変更する必要はなく、さまざまな説明可能性のテクニックで使用することができる。
与えられたグラフからモチーフ参加ノードをマッチングする実験では、説明精度が最大12.71%向上した。
論文 参考訳(メタデータ) (2021-06-16T03:04:46Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。