論文の概要: Unlink to Unlearn: Simplifying Edge Unlearning in GNNs
- arxiv url: http://arxiv.org/abs/2402.10695v2
- Date: Mon, 11 Mar 2024 17:08:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 14:11:01.969753
- Title: Unlink to Unlearn: Simplifying Edge Unlearning in GNNs
- Title(参考訳): Unlink to Unlearn: GNNにおけるエッジアンラーニングの簡略化
- Authors: Jiajun Tan, Fei Sun, Ruichen Qiu, Du Su, Huawei Shen
- Abstract要約: グラフニューラルネットワーク(GNN)におけるアンラーニングは、アカデミックにおける顕著な研究フロンティアとして現れている。
我々の研究は、エッジ・アンラーニング(エッジ・アンラーニング)に焦点を当てている。
グラフ構造から左端を解き放つことによって、未学習を容易にする新しい方法であるtextbfUnlink to Unlearn を開発した。
- 参考スコア(独自算出の注目度): 24.987140675476464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As concerns over data privacy intensify, unlearning in Graph Neural Networks
(GNNs) has emerged as a prominent research frontier in academia. This concept
is pivotal in enforcing the \textit{right to be forgotten}, which entails the
selective removal of specific data from trained GNNs upon user request. Our
research focuses on edge unlearning, a process of particular relevance to
real-world applications. Current state-of-the-art approaches like GNNDelete can
eliminate the influence of specific edges yet suffer from
\textit{over-forgetting}, which means the unlearning process inadvertently
removes excessive information beyond needed, leading to a significant
performance decline for remaining edges. Our analysis identifies the loss
functions of GNNDelete as the primary source of over-forgetting and also
suggests that loss functions may be redundant for effective edge unlearning.
Building on these insights, we simplify GNNDelete to develop \textbf{Unlink to
Unlearn} (UtU), a novel method that facilitates unlearning exclusively through
unlinking the forget edges from graph structure. Our extensive experiments
demonstrate that UtU delivers privacy protection on par with that of a
retrained model while preserving high accuracy in downstream tasks, by
upholding over 97.3\% of the retrained model's privacy protection capabilities
and 99.8\% of its link prediction accuracy. Meanwhile, UtU requires only
constant computational demands, underscoring its advantage as a highly
lightweight and practical edge unlearning solution.
- Abstract(参考訳): データプライバシに関する懸念が強まるにつれ、グラフニューラルネットワーク(GNN)のアンラーニングは、アカデミックにおける顕著な研究フロンティアとして現れている。
この概念は、ユーザの要求に応じてトレーニングされたGNNから特定のデータを選択的に削除する、‘textit{right to be forget}’を実行する上で重要なものだ。
私たちの研究は、実世界のアプリケーションと特に関連性のあるプロセスであるエッジアンラーニングにフォーカスしています。
GNNDeleteのような現在の最先端のアプローチは、未学習のプロセスが必然的に必要以上に過剰な情報を排除し、残するエッジのパフォーマンスが大幅に低下する、という、特定のエッジの影響を排除します。
本研究は,gnndeleteの損失関数をオーバーフォーティングの主な原因として同定し,効果的なエッジアンラーニングには損失関数が冗長である可能性を示唆する。
これらの知見に基づいて、GNNDeleteを単純化して、グラフ構造から左端を解き放つことで、未学習を容易にする新しい方法であるtextbf{Unlink to Unlearn} (UtU) を開発する。
広範な実験により、utuは、再トレーニングされたモデルのプライバシ保護能力の97.3\%とリンク予測精度の99.8\%を保ちながら、下流タスクにおける高い精度を維持しながら、再トレーニングされたモデルと同等のプライバシ保護を提供することが示された。
一方、UtUは一定の計算要求しか必要とせず、高度に軽量で実用的なエッジアンラーニングソリューションとしての優位性を強調している。
関連論文リスト
- TCGU: Data-centric Graph Unlearning based on Transferable Condensation [36.670771080732486]
Transferable Condensation Graph Unlearning (TCGU)は、ゼロガンスグラフアンラーニングのためのデータ中心のソリューションである。
我々は,TGUが既存のGU手法よりもモデルユーティリティ,未学習効率,未学習効率において優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-10-09T02:14:40Z) - Erase then Rectify: A Training-Free Parameter Editing Approach for Cost-Effective Graph Unlearning [17.85404473268992]
グラフアンラーニングは、訓練されたグラフニューラルネットワーク(GNN)からノード、エッジ、属性の影響を排除することを目的としている。
既存のグラフアンラーニング技術は、しばしば残りのデータに対する追加のトレーニングを必要とし、かなりの計算コストをもたらす。
本稿では,2段階の学習自由アプローチであるETR(Erase then Rectify)を提案する。
論文 参考訳(メタデータ) (2024-09-25T07:20:59Z) - Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - What Can We Learn from Unlearnable Datasets? [107.12337511216228]
学習不可能なデータセットは、ディープニューラルネットワークの一般化を防ぐことによって、データのプライバシを保護する可能性がある。
学習不可能なデータセットでトレーニングされたニューラルネットワークは、一般化には役に立たない単純なルールであるショートカットのみを学ぶと広く信じられている。
これとは対照的に,ネットワークは高いテスト性能を期待できる有用な特徴を実際に学習することができ,画像保護が保証されていないことを示唆している。
論文 参考訳(メタデータ) (2023-05-30T17:41:35Z) - Efficiently Forgetting What You Have Learned in Graph Representation
Learning via Projection [19.57394670843742]
線形GNNにおける非学習問題を考察し、非線形構造への拡張を導入する。
学習するノードの集合が与えられた場合、事前学習されたモデルの重みパラメータを、忘れられるノードの特徴とは無関係な部分空間に投影することで学習するPROJECTORを提案する。
論文 参考訳(メタデータ) (2023-02-17T16:49:10Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - GRNN: Generative Regression Neural Network -- A Data Leakage Attack for
Federated Learning [3.050919759387984]
画像ベースのプライバシデータは,提案されたGenerative Regression Neural Network (GRNN) によってのみ,共有グラデーションから簡単に回復できることを示した。
本手法は複数の画像分類タスクで評価する。
その結果,提案したGRNNは,安定性,強度,精度を向上し,最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-05-02T18:39:37Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。