論文の概要: Erase then Rectify: A Training-Free Parameter Editing Approach for Cost-Effective Graph Unlearning
- arxiv url: http://arxiv.org/abs/2409.16684v1
- Date: Wed, 25 Sep 2024 07:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 05:12:32.813496
- Title: Erase then Rectify: A Training-Free Parameter Editing Approach for Cost-Effective Graph Unlearning
- Title(参考訳): Erase then Rectify: コスト効果グラフアンラーニングのためのトレーニング不要パラメータ編集アプローチ
- Authors: Zhe-Rui Yang, Jindong Han, Chang-Dong Wang, Hao Liu,
- Abstract要約: グラフアンラーニングは、訓練されたグラフニューラルネットワーク(GNN)からノード、エッジ、属性の影響を排除することを目的としている。
既存のグラフアンラーニング技術は、しばしば残りのデータに対する追加のトレーニングを必要とし、かなりの計算コストをもたらす。
本稿では,2段階の学習自由アプローチであるETR(Erase then Rectify)を提案する。
- 参考スコア(独自算出の注目度): 17.85404473268992
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph unlearning, which aims to eliminate the influence of specific nodes, edges, or attributes from a trained Graph Neural Network (GNN), is essential in applications where privacy, bias, or data obsolescence is a concern. However, existing graph unlearning techniques often necessitate additional training on the remaining data, leading to significant computational costs, particularly with large-scale graphs. To address these challenges, we propose a two-stage training-free approach, Erase then Rectify (ETR), designed for efficient and scalable graph unlearning while preserving the model utility. Specifically, we first build a theoretical foundation showing that masking parameters critical for unlearned samples enables effective unlearning. Building on this insight, the Erase stage strategically edits model parameters to eliminate the impact of unlearned samples and their propagated influence on intercorrelated nodes. To further ensure the GNN's utility, the Rectify stage devises a gradient approximation method to estimate the model's gradient on the remaining dataset, which is then used to enhance model performance. Overall, ETR achieves graph unlearning without additional training or full training data access, significantly reducing computational overhead and preserving data privacy. Extensive experiments on seven public datasets demonstrate the consistent superiority of ETR in model utility, unlearning efficiency, and unlearning effectiveness, establishing it as a promising solution for real-world graph unlearning challenges.
- Abstract(参考訳): トレーニングされたグラフニューラルネットワーク(GNN)から特定のノード、エッジ、あるいは属性の影響を排除することを目的としたグラフアンラーニングは、プライバシ、バイアス、データの陳腐化が懸念されるアプリケーションに不可欠である。
しかし、既存のグラフアンラーニング技術は、しばしば残りのデータに対する追加のトレーニングを必要とし、特に大規模グラフの場合、計算コストが大幅に上昇する。
これらの課題に対処するために、モデルユーティリティを保ちながら、効率的でスケーラブルなグラフアンラーニング用に設計された2段階のトレーニングフリーアプローチ、Erase then Rectify (ETR)を提案する。
具体的には、まず、未学習サンプルに必須なマスキングパラメータが効果的なアンラーニングを可能にすることを示す理論的基礎を構築した。
この洞察に基づいて、Eraseステージはモデルパラメータを戦略的に編集し、未学習のサンプルの影響と、それらが相互関連ノードに与える影響を排除する。
さらに、GNNの実用性を保証するために、Rectifyステージでは、モデルの性能を高めるために使用される残りのデータセット上のモデルの勾配を推定する勾配近似法を考案している。
全体として、ETRは、追加のトレーニングや完全なトレーニングデータアクセスなしでグラフアンラーニングを実現し、計算オーバーヘッドを大幅に削減し、データのプライバシを保存する。
7つの公開データセットに関する大規模な実験は、モデルユーティリティにおけるETRの一貫性のある優位性、未学習の効率性、未学習の有効性を実証し、現実のグラフの未学習課題に対する有望な解決策として確立している。
関連論文リスト
- TCGU: Data-centric Graph Unlearning based on Transferable Condensation [36.670771080732486]
Transferable Condensation Graph Unlearning (TCGU)は、ゼロガンスグラフアンラーニングのためのデータ中心のソリューションである。
我々は,TGUが既存のGU手法よりもモデルユーティリティ,未学習効率,未学習効率において優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-10-09T02:14:40Z) - Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - PREM: A Simple Yet Effective Approach for Node-Level Graph Anomaly
Detection [65.24854366973794]
ノードレベルのグラフ異常検出(GAD)は、医学、ソーシャルネットワーク、eコマースなどの分野におけるグラフ構造化データから異常ノードを特定する上で重要な役割を果たす。
本稿では,GADの効率を向上させるために,PREM (preprocessing and Matching) という簡単な手法を提案する。
我々のアプローチは、強力な異常検出機能を維持しながら、GADを合理化し、時間とメモリ消費を削減します。
論文 参考訳(メタデータ) (2023-10-18T02:59:57Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Efficiently Forgetting What You Have Learned in Graph Representation
Learning via Projection [19.57394670843742]
線形GNNにおける非学習問題を考察し、非線形構造への拡張を導入する。
学習するノードの集合が与えられた場合、事前学習されたモデルの重みパラメータを、忘れられるノードの特徴とは無関係な部分空間に投影することで学習するPROJECTORを提案する。
論文 参考訳(メタデータ) (2023-02-17T16:49:10Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。