論文の概要: Do graph neural network states contain graph properties?
- arxiv url: http://arxiv.org/abs/2411.02168v2
- Date: Tue, 10 Dec 2024 18:14:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:34:34.495246
- Title: Do graph neural network states contain graph properties?
- Title(参考訳): グラフニューラルネットワーク状態はグラフ特性を含むか?
- Authors: Tom Pelletreau-Duris, Ruud van Bakel, Michael Cochez,
- Abstract要約: 診断分類器を用いたグラフニューラルネットワーク(GNN)のモデル説明可能性パイプラインを提案する。
このパイプラインは、さまざまなアーキテクチャやデータセットにわたるGNNの学習した表現を探索し、解釈することを目的としている。
- 参考スコア(独自算出の注目度): 5.222978725954348
- License:
- Abstract: Deep neural networks (DNNs) achieve state-of-the-art performance on many tasks, but this often requires increasingly larger model sizes, which in turn leads to more complex internal representations. Explainability techniques (XAI) have made remarkable progress in the interpretability of ML models. However, the non-relational nature of Graph neural networks (GNNs) make it difficult to reuse already existing XAI methods. While other works have focused on instance-based explanation methods for GNNs, very few have investigated model-based methods and, to our knowledge, none have tried to probe the embedding of the GNNs for well-known structural graph properties. In this paper we present a model agnostic explainability pipeline for GNNs employing diagnostic classifiers. This pipeline aims to probe and interpret the learned representations in GNNs across various architectures and datasets, refining our understanding and trust in these models.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は多くのタスクで最先端のパフォーマンスを達成するが、モデルのサイズが大きくなると内部表現が複雑になることが多い。
説明可能性技術(XAI)はMLモデルの解釈可能性において顕著な進歩を遂げている。
しかし、グラフニューラルネットワーク(GNN)の非関係性は、既存のXAI手法の再利用を困難にしている。
他の研究では、GNNのインスタンスベースの説明手法に重点を置いているが、モデルベースの手法を調査した例はほとんどなく、我々の知る限り、よく知られた構造グラフ特性に対するGNNの埋め込みを探索する試みは行われていない。
本稿では,診断分類器を用いたGNNのためのモデル非依存的説明可能性パイプラインを提案する。
このパイプラインは、さまざまなアーキテクチャやデータセットにわたるGNNの学習した表現を探索し、解釈することを目的としており、これらのモデルに対する理解と信頼を深めている。
関連論文リスト
- On the Computational Capability of Graph Neural Networks: A Circuit Complexity Bound Perspective [28.497567290882355]
グラフニューラルネットワーク(GNN)は、リレーショナルデータに対する学習と推論の標準的なアプローチとなっている。
本稿では,回路複雑性のレンズによるGNNの計算限界について検討する。
具体的には、共通GNNアーキテクチャの回路複雑性を分析し、定数層、線形またはサブ線形埋め込みサイズ、精度の制約の下で、GNNはグラフ接続やグラフ同型といった重要な問題を解くことができないことを証明している。
論文 参考訳(メタデータ) (2025-01-11T05:54:10Z) - CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Explainability in subgraphs-enhanced Graph Neural Networks [12.526174412246107]
グラフ強化グラフニューラルネットワーク(SGNN)は,GNNの表現力を高めるために導入された。
本稿では, GNN の最近の解説者の一つである PGExplainer を SGNN に適用する。
本稿では,グラフ分類タスクにおけるSGNNの決定過程を説明することに成功していることを示す。
論文 参考訳(メタデータ) (2022-09-16T13:39:10Z) - Edge-Level Explanations for Graph Neural Networks by Extending
Explainability Methods for Convolutional Neural Networks [33.20913249848369]
グラフニューラルネットワーク(GNN)は、グラフデータを入力として扱うディープラーニングモデルであり、トラフィック予測や分子特性予測といった様々なタスクに適用される。
本稿では,CNNに対する説明可能性の手法として,LIME(Local Interpretable Model-Agnostic Explanations)やGradient-Based Saliency Maps,Gradient-Weighted Class Activation Mapping(Grad-CAM)をGNNに拡張する。
実験結果から,LIMEに基づくアプローチは実環境における複数のタスクに対する最も効率的な説明可能性手法であり,その状態においても優れていたことが示唆された。
論文 参考訳(メタデータ) (2021-11-01T06:27:29Z) - GNNLens: A Visual Analytics Approach for Prediction Error Diagnosis of
Graph Neural Networks [42.222552078920216]
Graph Neural Networks(GNN)は、ディープラーニング技術をグラフデータに拡張することを目的としている。
GNNは、モデル開発者やユーザから詳細を隠したブラックボックスのように振る舞う。
したがって、GNNの潜在的なエラーを診断することは困難である。
本稿では,対話型視覚分析ツールGNNLensで研究ギャップを埋め,モデル開発者やユーザによるGNNの理解と分析を支援する。
論文 参考訳(メタデータ) (2020-11-22T16:09:08Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Attentive Graph Neural Networks for Few-Shot Learning [74.01069516079379]
グラフニューラルネットワーク(GNN)は、数ショットの学習タスクを含む多くの困難なアプリケーションにおいて、優れたパフォーマンスを示している。
少数のサンプルからモデルを学習し、一般化する能力があるにもかかわらず、GNNは通常、モデルが深くなるにつれて、過度な過度な適合と過度なスムーシングに悩まされる。
本稿では,三重注意機構を組み込むことにより,これらの課題に対処するための新しい注意型GNNを提案する。
論文 参考訳(メタデータ) (2020-07-14T07:43:09Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。