論文の概要: Forget and Explain: Transparent Verification of GNN Unlearning
- arxiv url: http://arxiv.org/abs/2512.07450v1
- Date: Mon, 08 Dec 2025 11:25:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.857029
- Title: Forget and Explain: Transparent Verification of GNN Unlearning
- Title(参考訳): Forget and Explain: GNN Unlearningの透過的検証
- Authors: Imran Ahsan, Hyunwook Yu, Jinsung Kim, Mucheol Kim,
- Abstract要約: 削除前後のモデルをスナップショット化するGNNアンラーニングのための説明可能性駆動型検証器を提案する。
我々は5つのベンチマークで2つのバックボーン(GCN, GAT)と4つのアンラーニング戦略(Retrain, GraphEditor, GNNDelete, IDEA)を評価した。
結果は、RetrainとGNNDeleteがほぼ完全なリフレッシュを実現し、GraphEditorが部分消去を提供し、IDEAが残余信号を残していることを示している。
- 参考スコア(独自算出の注目度): 3.0152570264250347
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) are increasingly used to model complex patterns in graph-structured data. However, enabling them to "forget" designated information remains challenging, especially under privacy regulations such as the GDPR. Existing unlearning methods largely optimize for efficiency and scalability, yet they offer little transparency, and the black-box nature of GNNs makes it difficult to verify whether forgetting has truly occurred. We propose an explainability-driven verifier for GNN unlearning that snapshots the model before and after deletion, using attribution shifts and localized structural changes (for example, graph edit distance) as transparent evidence. The verifier uses five explainability metrics: residual attribution, heatmap shift, explainability score deviation, graph edit distance, and a diagnostic graph rule shift. We evaluate two backbones (GCN, GAT) and four unlearning strategies (Retrain, GraphEditor, GNNDelete, IDEA) across five benchmarks (Cora, Citeseer, Pubmed, Coauthor-CS, Coauthor-Physics). Results show that Retrain and GNNDelete achieve near-complete forgetting, GraphEditor provides partial erasure, and IDEA leaves residual signals. These explanation deltas provide the primary, human-readable evidence of forgetting; we also report membership-inference ROC-AUC as a complementary, graph-wide privacy signal.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データの複雑なパターンをモデル化するためにますます利用されている。
しかし、特にGDPRのようなプライバシー規制の下では、指定された情報を「忘れる」ことは依然として困難である。
既存の未学習の手法は主に効率とスケーラビリティのために最適化されているが、透明性はほとんど提供されておらず、GNNのブラックボックスの性質は、忘れることが本当に起こったかどうかを検証するのを困難にしている。
帰属シフトと局所構造変化(例えば、グラフ編集距離)を透明な証拠として用いて、削除前後のモデルをスナップショット化するGNNアンラーニングのための説明可能性駆動型検証器を提案する。
検証者は、残差属性、ヒートマップシフト、説明可能性スコアの偏差、グラフ編集距離、診断グラフルールシフトの5つの説明可能性指標を使用する。
我々は5つのベンチマーク(Cora, Citeseer, Pubmed, Coauthor-CS, Coauthor-Physics)で2つのバックボーン(GCN, GAT)と4つの未学習戦略(Retrain, GraphEditor, GNNDelete, IDEA)を評価した。
結果は、RetrainとGNNDeleteがほぼ完全なリフレッシュを実現し、GraphEditorが部分消去を提供し、IDEAが残余信号を残していることを示している。
これらの説明デルタは、主要な、人間可読な忘れの証拠であり、また、メンバーシップ推論ROC-AUCをグラフ全体のプライバシー信号の補完として報告する。
関連論文リスト
- GraphTOP: Graph Topology-Oriented Prompting for Graph Neural Networks [66.07512871031163]
ラベルなしグラフデータよりも強力なグラフニューラルネットワーク(GNN)を事前学習する。
適応段階では、グラフプロンプトは学習可能なプロンプトで入力グラフデータを修正し、事前学習されたGNNモデルを凍結し続ける。
本稿では,事前学習したGNNモデルを下流タスクに効果的に適用するために,最初の**Graph****opology-**O**riented **P**rompting(GraphTOP)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-25T22:50:12Z) - GraphBridge: Towards Arbitrary Transfer Learning in GNNs [65.01790632978962]
GraphBridgeは、GNNの異なるタスクやドメイン間での知識伝達を可能にする新しいフレームワークである。
予測ヘッドと入力を出力層に接続するブリッジングネットワークを備えた、事前訓練されたGNNの拡張を可能にする。
これらのシナリオを代表する16以上のデータセットで実施された実証検証では、タスクとドメインに依存しないトランスファー学習のためのフレームワークの能力が確認されている。
論文 参考訳(メタデータ) (2025-02-26T15:57:51Z) - Community-Centric Graph Unlearning [10.906555492206959]
我々は、新しいグラフ構造マッピング・アンラーニング・パラダイム(GSMU)と、それに基づく新しい手法CGE(Community-centric Graph Eraser)を提案する。
CGEは、コミュニティのサブグラフをノードにマッピングすることで、少ないマップ付きグラフ内でノードレベルの未学習操作の再構築を可能にする。
論文 参考訳(メタデータ) (2024-08-19T05:37:35Z) - Towards Robust Fidelity for Evaluating Explainability of Graph Neural Networks [32.345435955298825]
グラフニューラルネットワーク(GNN)は、グラフノード間のメッセージパッシングを介してグラフィカルデータの依存性構造を利用するニューラルネットワークである。
GNN説明可能性の研究における主な課題は、これらの説明機能の性能を評価するための忠実度尺度を提供することである。
本稿では,この基礎的課題について考察し,その限界を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-03T06:25:14Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Reliable Representations Make A Stronger Defender: Unsupervised
Structure Refinement for Robust GNN [36.045702771828736]
グラフニューラルネットワーク(GNN)は、グラフデータ上でのタスクの繁栄に成功している。
近年の研究では、グラフ構造を悪質に修正することで、攻撃者がGNNの性能を壊滅的に低下させることができることが示されている。
グラフ構造を最適化するための教師なしパイプラインSTABLEを提案する。
論文 参考訳(メタデータ) (2022-06-30T10:02:32Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。