論文の概要: Dynamic Graph Unlearning: A General and Efficient Post-Processing Method via Gradient Transformation
- arxiv url: http://arxiv.org/abs/2405.14407v2
- Date: Mon, 03 Feb 2025 00:55:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-04 16:04:29.494293
- Title: Dynamic Graph Unlearning: A General and Efficient Post-Processing Method via Gradient Transformation
- Title(参考訳): 動的グラフアンラーニング:グラディエント変換による汎用的で効率的な後処理法
- Authors: He Zhang, Bang Wu, Xiangwen Yang, Xingliang Yuan, Xiaoning Liu, Xun Yi,
- Abstract要約: 動的グラフアンラーニングを初めて研究し、DGNNアンラーニングを実装するための効率的で効率的で汎用的で後処理手法を提案する。
提案手法は,将来的な未学習要求を処理できる可能性があり,性能が大幅に向上する。
- 参考スコア(独自算出の注目度): 24.20087360102464
- License:
- Abstract: Dynamic graph neural networks (DGNNs) have emerged and been widely deployed in various web applications (e.g., Reddit) to serve users (e.g., personalized content delivery) due to their remarkable ability to learn from complex and dynamic user interaction data. Despite benefiting from high-quality services, users have raised privacy concerns, such as misuse of personal data (e.g., dynamic user-user/item interaction) for model training, requiring DGNNs to ``forget'' their data to meet AI governance laws (e.g., the ``right to be forgotten'' in GDPR). However, current static graph unlearning studies cannot \textit{unlearn dynamic graph elements} and exhibit limitations such as the model-specific design or reliance on pre-processing, which disenable their practicability in dynamic graph unlearning. To this end, we study the dynamic graph unlearning for the first time and propose an effective, efficient, general, and post-processing method to implement DGNN unlearning. Specifically, we first formulate dynamic graph unlearning in the context of continuous-time dynamic graphs, and then propose a method called Gradient Transformation that directly maps the unlearning request to the desired parameter update. Comprehensive evaluations on six real-world datasets and state-of-the-art DGNN backbones demonstrate its effectiveness (e.g., limited drop or obvious improvement in utility) and efficiency (e.g., 7.23$\times$ speed-up) advantages. Additionally, our method has the potential to handle future unlearning requests with significant performance gains (e.g., 32.59$\times$ speed-up).
- Abstract(参考訳): 動的グラフニューラルネットワーク(DGNN)は、複雑で動的なユーザインタラクションデータから学習できることから、ユーザ(パーソナライズされたコンテンツ配信など)にサービスを提供するために、さまざまなWebアプリケーション(Redditなど)に広くデプロイされている。
高品質なサービスの恩恵にもかかわらず、ユーザーは、モデルのトレーニングに個人データ(例えば、動的ユーザ/イテムインタラクション)を誤用することや、DGNNがAIガバナンス規則(例えば、GDPRの‘忘れられる権利’)を満たすために、自身のデータを‘忘れる’ことといった、プライバシー上の懸念を提起している。
しかし、現在の静的グラフアンラーニング研究では、textit{unlearn dynamic graph element} を定義できず、モデル固有の設計や事前処理への依存といった制限を示さないため、動的グラフアンラーニングにおいてその実践性を損なうことができる。
そこで本研究では,動的グラフアンラーニングを初めて研究し,DGNNアンラーニングを実装するための効率的で効率的で汎用的で後処理手法を提案する。
具体的には、連続時間動的グラフの文脈で動的グラフアンラーニングを定式化し、次に、未学習要求を所望のパラメータ更新に直接マッピングするグラディエント変換法を提案する。
6つの実世界のデータセットと最先端のDGNNバックボーンに関する総合的な評価は、その有効性(例:限られたドロップ、ユーティリティの明らかな改善)と効率性(例:7.23$\times$ Speed-up)の利点を示している。
さらに,本手法では,将来的な未学習要求に対して,性能が大幅に向上する可能性がある(例えば,32.59$\times$ Speed-up)。
関連論文リスト
- Node-Time Conditional Prompt Learning In Dynamic Graphs [14.62182210205324]
DYGPROMPTは動的グラフモデリングのための新しい事前学習および迅速な学習フレームワークである。
我々はノードと時間の特徴が相互に特徴付けることを認識し、下流タスクにおけるノード時間パターンの進化をモデル化するための2つの条件ネットを提案する。
論文 参考訳(メタデータ) (2024-05-22T19:10:24Z) - GraphPro: Graph Pre-training and Prompt Learning for Recommendation [18.962982290136935]
GraphProはパラメータ効率と動的グラフ事前トレーニングと即時学習を組み合わせたフレームワークである。
本フレームワークは,時間的プロンプト機構とグラフ構造的プロンプト学習機構をシームレスに統合することにより,ユーザの好みを進化させる課題に対処する。
論文 参考訳(メタデータ) (2023-11-28T12:00:06Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - ROLAND: Graph Learning Framework for Dynamic Graphs [75.96510058864463]
グラフニューラルネットワーク(GNN)は多くの実世界の静的グラフに適用されている。
既存の動的GNNには静的GNNの最先端設計が組み込まれていない。
実世界の動的グラフのための効果的なグラフ表現学習フレームワーク ROLAND を提案する。
論文 参考訳(メタデータ) (2022-08-15T14:51:47Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Efficient Dynamic Graph Representation Learning at Scale [66.62859857734104]
本稿では,学習損失による時間依存性を選択的に表現し,計算の並列性を改善するための効率的な動的グラフ lEarning (EDGE) を提案する。
EDGEは、数百万のノードと数億の時間的イベントを持つ動的グラフにスケールでき、新しい最先端(SOTA)パフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-12-14T22:24:53Z) - Dynamic Graph Representation Learning via Graph Transformer Networks [41.570839291138114]
動的グラフ変換器 (DGT) を用いた動的グラフ学習手法を提案する。
DGTは、グラフトポロジを効果的に学習し、暗黙のリンクをキャプチャするための時空間符号化を持つ。
DGTはいくつかの最先端のベースラインと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-19T21:44:23Z) - Learning to Evolve on Dynamic Graphs [5.1521870302904125]
Learning to Evolve on Dynamic Graphs (LEDG)は、グラフ情報と時間情報を共同で学習する新しいアルゴリズムである。
LEDGはモデルに依存しないため、動的グラフ上でメッセージパッシングベースのグラフニューラルネットワーク(GNN)をトレーニングすることができる。
論文 参考訳(メタデータ) (2021-11-13T04:09:30Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。