論文の概要: Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2405.14407v1
- Date: Thu, 23 May 2024 10:26:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 15:44:17.563547
- Title: Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks
- Title(参考訳): グラディエント・トランスフォーメーション:動的グラフニューラルネットワークの効率的かつモデルに依存しない学習を目指して
- Authors: He Zhang, Bang Wu, Xiangwen Yang, Xingliang Yuan, Chengqi Zhang, Shirui Pan,
- Abstract要約: グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
- 参考スコア(独自算出の注目度): 66.70786325911124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph unlearning has emerged as an essential tool for safeguarding user privacy and mitigating the negative impacts of undesirable data. Meanwhile, the advent of dynamic graph neural networks (DGNNs) marks a significant advancement due to their superior capability in learning from dynamic graphs, which encapsulate spatial-temporal variations in diverse real-world applications (e.g., traffic forecasting). With the increasing prevalence of DGNNs, it becomes imperative to investigate the implementation of dynamic graph unlearning. However, current graph unlearning methodologies are designed for GNNs operating on static graphs and exhibit limitations including their serving in a pre-processing manner and impractical resource demands. Furthermore, the adaptation of these methods to DGNNs presents non-trivial challenges, owing to the distinctive nature of dynamic graphs. To this end, we propose an effective, efficient, model-agnostic, and post-processing method to implement DGNN unlearning. Specifically, we first define the unlearning requests and formulate dynamic graph unlearning in the context of continuous-time dynamic graphs. After conducting a role analysis on the unlearning data, the remaining data, and the target DGNN model, we propose a method called Gradient Transformation and a loss function to map the unlearning request to the desired parameter update. Evaluations on six real-world datasets and state-of-the-art DGNN backbones demonstrate its effectiveness (e.g., limited performance drop even obvious improvement) and efficiency (e.g., at most 7.23$\times$ speed-up) outperformance, and potential advantages in handling future unlearning requests (e.g., at most 32.59$\times$ speed-up).
- Abstract(参考訳): グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
一方、動的グラフニューラルネットワーク(DGNN)の出現は、様々な現実世界のアプリケーション(例えば、交通予測)における空間的時間的変動をカプセル化した動的グラフから学習する優れた能力のために、大きな進歩を見せている。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
しかし、現在のグラフアンラーニング手法は、静的グラフで動作するGNN向けに設計されており、前処理方式や非現実的なリソース要求といった制限がある。
さらに、これらの手法のDGNNへの適応は、動的グラフの特異性のため、非自明な課題を提示する。
そこで本研究では,DGNNアンラーニングを実装するための効率的,効率的,モデルに依存しない,後処理手法を提案する。
具体的には、まず非学習要求を定義し、連続時間動的グラフの文脈で動的グラフアンラーニングを定式化する。
未学習データ,残データ,および対象DGNNモデルのロール分析を行った後,未学習要求を所望のパラメータ更新にマッピングするグラディエント変換法と損失関数を提案する。
6つの実世界のデータセットと最先端のDGNNバックボーンの評価は、その有効性(例えば、パフォーマンスの低下も明らか)と効率性(例えば、少なくとも7.23$\times$ Speed-up)のアウトパフォーマンスと、将来の未学習リクエスト(少なくとも32.59$\times$ Speed-up)を扱う潜在的アドバンテージ(例えば、少なくとも32.59$\times$ Speed-up)を示している。
関連論文リスト
- Node-Time Conditional Prompt Learning In Dynamic Graphs [14.62182210205324]
DYGPROMPTは動的グラフモデリングのための新しい事前学習および迅速な学習フレームワークである。
我々はノードと時間の特徴が相互に特徴付けることを認識し、下流タスクにおけるノード時間パターンの進化をモデル化するための2つの条件ネットを提案する。
論文 参考訳(メタデータ) (2024-05-22T19:10:24Z) - A survey of dynamic graph neural networks [26.162035361191805]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから効果的にマイニングし学習するための強力なツールとして登場した。
本稿では,基本的な概念,鍵となる技術,そして最先端の動的GNNモデルについて概観する。
論文 参考訳(メタデータ) (2024-04-28T15:07:48Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - EasyDGL: Encode, Train and Interpret for Continuous-time Dynamic Graph Learning [92.71579608528907]
本稿では,3つのモジュールから構成される使い勝手の良いパイプライン(EasyDGL)を設計することを目的とする。
EasyDGLは、進化するグラフデータからモデルが学習する周波数コンテンツの予測力を効果的に定量化することができる。
論文 参考訳(メタデータ) (2023-03-22T06:35:08Z) - Spiking Variational Graph Auto-Encoders for Efficient Graph
Representation Learning [10.65760757021534]
本稿では,効率的なグラフ表現学習のためのSNNに基づく深層生成手法,すなわちSpking Variational Graph Auto-Encoders (S-VGAE)を提案する。
我々は,複数のベンチマークグラフデータセット上でリンク予測実験を行い,この結果から,グラフ表現学習における他のANNやSNNに匹敵する性能で,より少ないエネルギーを消費することを示した。
論文 参考訳(メタデータ) (2022-10-24T12:54:41Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Efficient Dynamic Graph Representation Learning at Scale [66.62859857734104]
本稿では,学習損失による時間依存性を選択的に表現し,計算の並列性を改善するための効率的な動的グラフ lEarning (EDGE) を提案する。
EDGEは、数百万のノードと数億の時間的イベントを持つ動的グラフにスケールでき、新しい最先端(SOTA)パフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-12-14T22:24:53Z) - Learning to Evolve on Dynamic Graphs [5.1521870302904125]
Learning to Evolve on Dynamic Graphs (LEDG)は、グラフ情報と時間情報を共同で学習する新しいアルゴリズムである。
LEDGはモデルに依存しないため、動的グラフ上でメッセージパッシングベースのグラフニューラルネットワーク(GNN)をトレーニングすることができる。
論文 参考訳(メタデータ) (2021-11-13T04:09:30Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。