論文の概要: Unlink to Unlearn: Simplifying Edge Unlearning in GNNs
- arxiv url: http://arxiv.org/abs/2402.10695v1
- Date: Fri, 16 Feb 2024 13:58:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 15:48:18.270404
- Title: Unlink to Unlearn: Simplifying Edge Unlearning in GNNs
- Title(参考訳): Unlink to Unlearn: GNNにおけるエッジアンラーニングの簡略化
- Authors: Jiajun Tan, Fei Sun, Ruichen Qiu, Du Su, Huawei Shen
- Abstract要約: グラフニューラルネットワーク(GNN)におけるアンラーニングは、アカデミックにおける顕著な研究フロンティアとして現れている。
我々の研究は、エッジ・アンラーニング(エッジ・アンラーニング)に焦点を当てている。
UtU(Unlink-to-Unlearn, Unlink-to-Unlearn, Unlink-to-Unlearn)を開発した。
- 参考スコア(独自算出の注目度): 24.987140675476464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As concerns over data privacy intensify, unlearning in Graph Neural Networks
(GNNs) has emerged as a prominent research frontier in academia. This concept
is pivotal in enforcing the right to be forgotten, which entails the selective
removal of specific data from trained GNNs upon user request. Our research
focuses on edge unlearning, a process of particular relevance to real-world
applications, owing to its widespread applicability. Current state-of-the-art
approaches like GNNDelete can eliminate the influence of specific edges, yet
our research has revealed a critical limitation in these approaches, termed
over-forgetting. It occurs when the unlearning process inadvertently removes
excessive information beyond specific data, leading to a significant decline in
prediction accuracy for the remaining edges. To address this issue, we have
identified the loss functions of GNNDelete as the primary source of the
over-forgetting phenomenon. Furthermore, our analysis also suggests that loss
functions may not be essential for effective edge unlearning. Building on these
insights, we have simplified GNNDelete to develop Unlink-to-Unlearn (UtU), a
novel method that facilitates unlearning exclusively through unlinking the
forget edges from graph structure. Our extensive experiments demonstrate that
UtU delivers privacy protection on par with that of a retrained model while
preserving high accuracy in downstream tasks. Specifically, UtU upholds over
97.3% of the retrained model's privacy protection capabilities and 99.8% of its
link prediction accuracy. Meanwhile, UtU requires only constant computational
demands, underscoring its advantage as a highly lightweight and practical edge
unlearning solution.
- Abstract(参考訳): データプライバシに関する懸念が強まるにつれ、グラフニューラルネットワーク(GNN)のアンラーニングは、アカデミックにおける顕著な研究フロンティアとして現れている。
この概念は、ユーザの要求に応じてトレーニングされたGNNから特定のデータを選択的に削除する必要がある、忘れられる権利を強制する上で重要である。
我々の研究は、エッジ・アンラーニング(エッジ・アンラーニング)に焦点を当てている。
gnndeleteのような最先端のアプローチは、特定のエッジの影響を排除できますが、私たちの研究は、オーバーフォーティングと呼ばれるこれらのアプローチに重大な制限があることを明らかにしました。
未学習プロセスが必然的に特定のデータを超えた過剰な情報を除去し、残りのエッジの予測精度が大幅に低下する。
この問題に対処するため,GNNDeleteの損失関数をオーバーフォッゲッティング現象の主要な原因として同定した。
さらに,実効的なエッジアンラーニングには損失関数が必須ではない可能性も示唆した。
これらの知見に基づいて、gnndeleteを単純化し、グラフ構造から忘れられたエッジをアンリンクすることで、学習のみを容易にする新しい方法であるunlink-to-unlearn(utu)を開発した。
我々の広範な実験は、UtUが下流タスクにおいて高い精度を維持しながら、トレーニングされたモデルと同等のプライバシー保護を提供することを示した。
特にUtUは、再訓練されたモデルのプライバシー保護能力の97.3%以上と、リンク予測精度の99.8%を支持している。
一方、UtUは一定の計算要求しか必要とせず、高度に軽量で実用的なエッジアンラーニングソリューションとしての優位性を強調している。
関連論文リスト
- TCGU: Data-centric Graph Unlearning based on Transferable Condensation [36.670771080732486]
Transferable Condensation Graph Unlearning (TCGU)は、ゼロガンスグラフアンラーニングのためのデータ中心のソリューションである。
我々は,TGUが既存のGU手法よりもモデルユーティリティ,未学習効率,未学習効率において優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-10-09T02:14:40Z) - Erase then Rectify: A Training-Free Parameter Editing Approach for Cost-Effective Graph Unlearning [17.85404473268992]
グラフアンラーニングは、訓練されたグラフニューラルネットワーク(GNN)からノード、エッジ、属性の影響を排除することを目的としている。
既存のグラフアンラーニング技術は、しばしば残りのデータに対する追加のトレーニングを必要とし、かなりの計算コストをもたらす。
本稿では,2段階の学習自由アプローチであるETR(Erase then Rectify)を提案する。
論文 参考訳(メタデータ) (2024-09-25T07:20:59Z) - Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - What Can We Learn from Unlearnable Datasets? [107.12337511216228]
学習不可能なデータセットは、ディープニューラルネットワークの一般化を防ぐことによって、データのプライバシを保護する可能性がある。
学習不可能なデータセットでトレーニングされたニューラルネットワークは、一般化には役に立たない単純なルールであるショートカットのみを学ぶと広く信じられている。
これとは対照的に,ネットワークは高いテスト性能を期待できる有用な特徴を実際に学習することができ,画像保護が保証されていないことを示唆している。
論文 参考訳(メタデータ) (2023-05-30T17:41:35Z) - Efficiently Forgetting What You Have Learned in Graph Representation
Learning via Projection [19.57394670843742]
線形GNNにおける非学習問題を考察し、非線形構造への拡張を導入する。
学習するノードの集合が与えられた場合、事前学習されたモデルの重みパラメータを、忘れられるノードの特徴とは無関係な部分空間に投影することで学習するPROJECTORを提案する。
論文 参考訳(メタデータ) (2023-02-17T16:49:10Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - GRNN: Generative Regression Neural Network -- A Data Leakage Attack for
Federated Learning [3.050919759387984]
画像ベースのプライバシデータは,提案されたGenerative Regression Neural Network (GRNN) によってのみ,共有グラデーションから簡単に回復できることを示した。
本手法は複数の画像分類タスクで評価する。
その結果,提案したGRNNは,安定性,強度,精度を向上し,最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-05-02T18:39:37Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。