論文の概要: RegExplainer: Generating Explanations for Graph Neural Networks in
Regression Task
- arxiv url: http://arxiv.org/abs/2307.07840v2
- Date: Tue, 25 Jul 2023 06:03:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 20:11:09.601433
- Title: RegExplainer: Generating Explanations for Graph Neural Networks in
Regression Task
- Title(参考訳): RegExplainer: 回帰タスクにおけるグラフニューラルネットワークの説明生成
- Authors: Jiaxing Zhang, Zhuomin Chen, Hao Mei, Dongsheng Luo, and Hua Wei
- Abstract要約: グラフ回帰モデル(XAIG-R)を解釈するための説明を求める。
これらの課題に対処するために,情報ボトルネック理論に基づく新たな目的を提案する。
回帰タスクにおいて連続的に順序付けられたラベルに取り組むための対照的な学習戦略を提案する。
- 参考スコア(独自算出の注目度): 5.382009787759415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph regression is a fundamental task and has received increasing attention
in a wide range of graph learning tasks. However, the inference process is
often not interpretable. Most existing explanation techniques are limited to
understanding GNN behaviors in classification tasks. In this work, we seek an
explanation to interpret the graph regression models (XAIG-R). We show that
existing methods overlook the distribution shifting and continuously ordered
decision boundary, which hinders them away from being applied in the regression
tasks. To address these challenges, we propose a novel objective based on the
information bottleneck theory and introduce a new mix-up framework, which could
support various GNNs in a model-agnostic manner. We further present a
contrastive learning strategy to tackle the continuously ordered labels in
regression task. To empirically verify the effectiveness of the proposed
method, we introduce three benchmark datasets and a real-life dataset for
evaluation. Extensive experiments show the effectiveness of the proposed method
in interpreting GNN models in regression tasks.
- Abstract(参考訳): グラフ回帰は基本的なタスクであり、幅広いグラフ学習タスクで注目を集めています。
しかし、推論プロセスはしばしば解釈できない。
既存の説明手法の多くは、分類タスクにおけるGNNの動作を理解することに限定されている。
本研究では,グラフ回帰モデル (XAIG-R) を解釈するための説明を求める。
既存の手法では分布シフトと連続的に順序付けられた決定境界を見落としており,回帰タスクで適用されることを妨げている。
これらの課題に対処するために,情報ボトルネック理論に基づく新たな目標を提案し,モデルに依存しない方法で様々なGNNをサポートする新しい混合フレームワークを提案する。
さらに,回帰作業において連続的に順序付けられたラベルに取り組むための対比学習戦略を提案する。
提案手法の有効性を実証的に検証するために,評価のための3つのベンチマークデータセットと実生活データセットを導入する。
大規模な実験により,回帰作業におけるGNNモデルの解釈における提案手法の有効性が示された。
関連論文リスト
- Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Towards Temporal Edge Regression: A Case Study on Agriculture Trade
Between Nations [4.612412025217201]
グラフニューラルネットワーク(GNN)は、動的グラフ上のタスクにおいて有望なパフォーマンスを示している。
本稿では,GNNの静的および動的設定におけるエッジ回帰タスクへの適用について検討する。
論文 参考訳(メタデータ) (2023-08-15T17:13:16Z) - Adapting to Change: Robust Counterfactual Explanations in Dynamic Data
Landscapes [9.943459106509687]
我々は、新しい半教師付きグラフカウンターファクトExplainer(GCE)方法論、ダイナミックGRAphカウンタファクトExplainer(DyGRACE)を紹介する。
これは、データ配布に関する初期知識を活用して、有効な偽物を探すと同時に、後続の時間ステップにおいて、潜在的に時代遅れな決定関数からの情報を使用することを避けます。
DyGRACEは非常に効果的でドリフト検出器として機能し、反復間の再構成誤差の違いに基づいて分布ドリフトを識別する。
論文 参考訳(メタデータ) (2023-08-04T14:41:03Z) - MixupExplainer: Generalizing Explanations for Graph Neural Networks with
Data Augmentation [6.307753856507624]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する能力によって、注目を集めている。
GNN予測を理解するために、ポストホックなインスタンスレベルの説明法が提案されている。
我々は,既存手法における分布シフト問題の存在に光を当て,説明の質に影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-15T15:46:38Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Deep Graph Reprogramming [112.34663053130073]
グラフニューラルネットワーク(GNN)に適したタスク再利用モデル「ディープグラフ再プログラミング」
本稿では,モデル再プログラミングパラダイムと並行して,革新的なデータ再プログラミングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-28T02:04:29Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - An Empirical Study of Retrieval-enhanced Graph Neural Networks [48.99347386689936]
グラフニューラルネットワーク(GNN)は、グラフ表現学習に有効なツールである。
本稿では,グラフニューラルネットワークモデルの選択に非依存な GraphRETRIEVAL という検索強化方式を提案する。
我々は13のデータセットに対して包括的な実験を行い、GRAPHRETRIEVALが既存のGNNよりも大幅に改善されていることを観察した。
論文 参考訳(メタデータ) (2022-06-01T09:59:09Z) - Active Learning on Attributed Graphs via Graph Cognizant Logistic
Regression and Preemptive Query Generation [37.742218733235084]
本稿では,属性グラフにおけるノード分類処理のための新しいグラフベース能動学習アルゴリズムを提案する。
提案アルゴリズムは,線形化グラフ畳み込みニューラルネットワーク(GCN)と等価なグラフ認識ロジスティック回帰を用いて,予測フェーズの誤差低減を最大化する。
5つの公開ベンチマークデータセットで実験を行い、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-07-09T18:00:53Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。