論文の概要: SE-SGformer: A Self-Explainable Signed Graph Transformer for Link Sign Prediction
- arxiv url: http://arxiv.org/abs/2408.08754v1
- Date: Fri, 16 Aug 2024 13:54:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 15:14:04.809172
- Title: SE-SGformer: A Self-Explainable Signed Graph Transformer for Link Sign Prediction
- Title(参考訳): SE-SGformer: リンクサイン予測のための自己説明可能なグラフ変換器
- Authors: Lu Li, Jiale Liu, Xingyu Ji, Maojun Wang, Zeyu Zhang,
- Abstract要約: 符号付きグラフニューラルネットワーク(SGNN)は、正と負のリンクが共存する現実の状況において、複雑なパターンを分析するのに有効であることが示されている。
SGNNモデルは説明可能性の低さに悩まされており、予測の背後にある理論的根拠を理解する必要のある重要なシナリオでの採用を制限する。
本稿では,高い予測精度を確保しつつ説明可能な情報を出力するSelf-Explainable Signed Graph Transformer (SE-SGformer) フレームワークを提案する。
- 参考スコア(独自算出の注目度): 8.820909397907274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Signed Graph Neural Networks (SGNNs) have been shown to be effective in analyzing complex patterns in real-world situations where positive and negative links coexist. However, SGNN models suffer from poor explainability, which limit their adoptions in critical scenarios that require understanding the rationale behind predictions. To the best of our knowledge, there is currently no research work on the explainability of the SGNN models. Our goal is to address the explainability of decision-making for the downstream task of link sign prediction specific to signed graph neural networks. Since post-hoc explanations are not derived directly from the models, they may be biased and misrepresent the true explanations. Therefore, in this paper we introduce a Self-Explainable Signed Graph transformer (SE-SGformer) framework, which can not only outputs explainable information while ensuring high prediction accuracy. Specifically, We propose a new Transformer architecture for signed graphs and theoretically demonstrate that using positional encoding based on signed random walks has greater expressive power than current SGNN methods and other positional encoding graph Transformer-based approaches. We constructs a novel explainable decision process by discovering the $K$-nearest (farthest) positive (negative) neighbors of a node to replace the neural network-based decoder for predicting edge signs. These $K$ positive (negative) neighbors represent crucial information about the formation of positive (negative) edges between nodes and thus can serve as important explanatory information in the decision-making process. We conducted experiments on several real-world datasets to validate the effectiveness of SE-SGformer, which outperforms the state-of-the-art methods by improving 2.2\% prediction accuracy and 73.1\% explainablity accuracy in the best-case scenario.
- Abstract(参考訳): 符号付きグラフニューラルネットワーク(SGNN)は、正と負のリンクが共存する現実の状況において、複雑なパターンを分析するのに有効であることが示されている。
しかし、SGNNモデルは説明可能性の低さに悩まされ、予測の背後にある理論的根拠を理解する必要のある重要なシナリオへの導入を制限する。
我々の知る限りでは、現在SGNNモデルの説明可能性に関する研究は行われていない。
我々のゴールは、符号付きグラフニューラルネットワークに特有のリンクサイン予測の下流タスクにおける意思決定の説明可能性に対処することである。
ポストホックな説明はモデルから直接導出されないので、それらはバイアスを受け、真の説明を誤って表現することができる。
そこで本稿では,高い予測精度を確保しつつ,説明可能な情報のみを出力できるSelf-Explainable Signed Graph Transformer(SE-SGformer)フレームワークを提案する。
具体的には、署名されたグラフのための新しいトランスフォーマーアーキテクチャを提案し、署名されたランダムウォークに基づく位置符号化の使用は、現在のSGNN法や他の位置符号化グラフトランスフォーマーベースのアプローチよりも表現力が高いことを理論的に実証する。
我々は,ニューラルネットワークベースのデコーダを置き換えてエッジサインを予測するために,ノードのK$-nearest(Farthest)正の(負の)隣人を発見することによって,説明可能な新たな意思決定プロセスを構築した。
これらのK$正の(負の)隣人は、ノード間の正の(負の)エッジの形成に関する重要な情報であり、意思決定プロセスにおいて重要な説明情報として機能する。
我々は,SE-SGformerの有効性を検証するために,複数の実世界のデータセットを用いて実験を行った。これは,2.2\%の予測精度と73.1\%の説明精度を向上させることにより,最先端の手法よりも優れている。
関連論文リスト
- DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - GANExplainer: GAN-based Graph Neural Networks Explainer [5.641321839562139]
グラフニューラルネットワーク(GNN)が、多くのアプリケーションにおいて、特定の予測を行う理由を説明することは重要である。
本稿では,GANアーキテクチャに基づくGANExplainerを提案する。
GANExplainerは、その代替案と比較して、説明精度を最大35%改善する。
論文 参考訳(メタデータ) (2022-12-30T23:11:24Z) - On Consistency in Graph Neural Network Interpretation [34.25952902469481]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
論文 参考訳(メタデータ) (2022-05-27T02:58:07Z) - Handling Distribution Shifts on Graphs: An Invariance Perspective [78.31180235269035]
我々は、グラフ上のOOD問題を定式化し、新しい不変学習手法である探索・拡張リスク最小化(EERM)を開発する。
EERMは、複数の仮想環境からのリスクの分散を最大化するために、敵対的に訓練された複数のコンテキストエクスプローラーを利用する。
理論的に有効なOOD解の保証を示すことによって,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-05T02:31:01Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - A Meta-Learning Approach for Training Explainable Graph Neural Networks [10.11960004698409]
本稿では,GNNの学習時間における説明可能性向上のためのメタラーニングフレームワークを提案する。
我々のフレームワークは、例えばノード分類などの元のタスクを解決するためにモデルを共同で訓練し、下流アルゴリズムで容易に処理可能な出力を提供する。
我々のモデルに依存しないアプローチは、異なるGNNアーキテクチャで生成された説明を改善し、このプロセスを駆動するためにインスタンスベースの説明器を使用することができます。
論文 参考訳(メタデータ) (2021-09-20T11:09:10Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - SEEN: Sharpening Explanations for Graph Neural Networks using
Explanations from Neighborhoods [0.0]
本稿では,補助的説明の集約によるノード分類タスクの説明品質の向上手法を提案する。
SEENを適用するにはグラフを変更する必要はなく、さまざまな説明可能性のテクニックで使用することができる。
与えられたグラフからモチーフ参加ノードをマッチングする実験では、説明精度が最大12.71%向上した。
論文 参考訳(メタデータ) (2021-06-16T03:04:46Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - CSNE: Conditional Signed Network Embedding [77.54225346953069]
署名されたネットワークは、友人/フォアや信頼/不信のようなエンティティ間の正と負の関係を符号化する。
サイン予測のための既存の埋め込み手法は、一般に最適化関数におけるステータスやバランス理論の異なる概念を強制する。
条件付き符号付きネットワーク埋め込み(CSNE)を導入する。
我々の確率論的アプローチは、きめ細かな詳細とは別途、ネットワーク内の記号に関する構造情報をモデル化する。
論文 参考訳(メタデータ) (2020-05-19T19:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。