論文の概要: Explaining Hypergraph Neural Networks: From Local Explanations to Global Concepts
- arxiv url: http://arxiv.org/abs/2410.07764v1
- Date: Thu, 10 Oct 2024 09:50:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 15:06:11.517904
- Title: Explaining Hypergraph Neural Networks: From Local Explanations to Global Concepts
- Title(参考訳): ハイパーグラフニューラルネットワークの解説:ローカル説明からグローバル概念へ
- Authors: Shiye Su, Iulia Duta, Lucie Charlotte Magister, Pietro Liò,
- Abstract要約: 我々は、ハイパーグラフニューラルネットワークのための最初のモデルに依存しないポストホック説明器SHypXを紹介する。
インスタンスレベルでは、忠実で簡潔に最適化された説明副ハイパーグラフを個別にサンプリングすることで、入力属性を実行する。
モデルレベルでは、教師なし概念抽出を用いて、グローバルな説明副グラフを生成する。
- 参考スコア(独自算出の注目度): 18.220099086165394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hypergraph neural networks are a class of powerful models that leverage the message passing paradigm to learn over hypergraphs, a generalization of graphs well-suited to describing relational data with higher-order interactions. However, such models are not naturally interpretable, and their explainability has received very limited attention. We introduce SHypX, the first model-agnostic post-hoc explainer for hypergraph neural networks that provides both local and global explanations. At the instance-level, it performs input attribution by discretely sampling explanation subhypergraphs optimized to be faithful and concise. At the model-level, it produces global explanation subhypergraphs using unsupervised concept extraction. Extensive experiments across four real-world and four novel, synthetic hypergraph datasets demonstrate that our method finds high-quality explanations which can target a user-specified balance between faithfulness and concision, improving over baselines by 25 percent points in fidelity on average.
- Abstract(参考訳): ハイパーグラフニューラルネットワークは、ハイパーグラフを通して学習するためにメッセージパッシングパラダイムを利用する強力なモデルのクラスである。
しかし、そのようなモデルは自然に解釈できるものではなく、その説明可能性は非常に制限されている。
我々は、ハイパーグラフニューラルネットワークのための最初のモデルに依存しないポストホック説明器であるSHypXを紹介し、局所的およびグローバル的な説明を提供する。
インスタンスレベルでは、忠実で簡潔に最適化された説明副ハイパーグラフを個別にサンプリングすることで、入力属性を実行する。
モデルレベルでは、教師なし概念抽出を用いて、グローバルな説明副グラフを生成する。
4つの実世界と4つの新しい合成ハイパーグラフデータセットにわたる大規模な実験により、我々の手法は、忠実さと簡潔さのユーザの特定バランスを目標にできる高品質な説明を見つけ、ベースラインを平均で25%向上することを示した。
関連論文リスト
- SPHINX: Structural Prediction using Hypergraph Inference Network [19.853413818941608]
本稿では,非教師付き手法で遅延ハイパーグラフ構造を推論するモデルであるハイパーグラフ推論ネットワーク(SPHINX)を用いた構造予測を提案する。
k-サブセットサンプリングの最近の進歩は、離散ハイパーグラフ構造を生成するのに適したツールであることを示す。
結果として得られるモデルは、現代のハイパーグラフニューラルネットワークに必要な高次構造を生成することができる。
論文 参考訳(メタデータ) (2024-10-04T07:49:57Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Hypergraph Node Representation Learning with One-Stage Message Passing [28.311325846217574]
ハイパーグラフのグローバルおよびローカル情報伝搬をモデル化するための,新しいワンステージメッセージパッシングパラダイムを提案する。
我々はこのパラダイムをハイパーグラフノード表現学習のためのトランスフォーマーベースのフレームワークであるHGraphormerに統合する。
論文 参考訳(メタデータ) (2023-12-01T04:10:00Z) - D4Explainer: In-Distribution GNN Explanations via Discrete Denoising
Diffusion [12.548966346327349]
グラフニューラルネットワーク(GNN)は、モデル監査と信頼できるグラフ学習の確保において重要な役割を果たす。
D4Explainerは、偽物とモデルレベルの説明シナリオの両方に対して、分散GNN説明を提供する新しいアプローチである。
これは、カウンターファクトとモデルレベルの説明を組み合わせた最初の統合フレームワークである。
論文 参考訳(メタデータ) (2023-10-30T07:41:42Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - DualHGNN: A Dual Hypergraph Neural Network for Semi-Supervised Node
Classification based on Multi-View Learning and Density Awareness [3.698434507617248]
グラフに基づく半教師付きノード分類は、研究価値と重要性の高い多くのアプリケーションにおいて最先端のアプローチであることが示されている。
本稿では、ハイパーグラフ構造学習とハイパーグラフ表現学習を同時に統合した新しいデュアル接続モデルであるデュアルハイパーグラフニューラルネットワーク(DualHGNN)を提案する。
論文 参考訳(メタデータ) (2023-06-07T07:40:04Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Message Passing Neural Networks for Hypergraphs [6.999112784624749]
本稿では,ハイパーグラフ構造データを処理可能なメッセージパッシングに基づく,最初のグラフニューラルネットワークを提案する。
提案モデルでは,ハイパーグラフのためのニューラルネットワークモデルの設計空間が定義され,既存のハイパーグラフモデルが一般化されることを示す。
論文 参考訳(メタデータ) (2022-03-31T12:38:22Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。