論文の概要: GraphToxin: Reconstructing Full Unlearned Graphs from Graph Unlearning
- arxiv url: http://arxiv.org/abs/2511.10936v1
- Date: Fri, 14 Nov 2025 03:52:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.421221
- Title: GraphToxin: Reconstructing Full Unlearned Graphs from Graph Unlearning
- Title(参考訳): GraphToxin: グラフ学習による未学習グラフの再構築
- Authors: Ying Song, Balaji Palanisamy,
- Abstract要約: グラフアンラーニングに対する最初のグラフ再構成攻撃であるGraphToxinを提案する。
GraphToxinは、グラフアンラーニングによって期待される規制の保証を回避できることを実証する。
我々の研究は、この攻撃に対してより効果的で堅牢な防衛戦略を開発するための緊急の必要性を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 4.838500914184325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph unlearning has emerged as a promising solution for complying with "the right to be forgotten" regulations by enabling the removal of sensitive information upon request. However, this solution is not foolproof. The involvement of multiple parties creates new attack surfaces, and residual traces of deleted data can still remain in the unlearned graph neural networks. These vulnerabilities can be exploited by attackers to recover the supposedly erased samples, thereby undermining the inherent functionality of graph unlearning. In this work, we propose GraphToxin, the first graph reconstruction attack against graph unlearning. Specifically, we introduce a novel curvature matching module to provide a fine-grained guidance for full unlearned graph recovery. We demonstrate that GraphToxin can successfully subvert the regulatory guarantees expected from graph unlearning - it can recover not only a deleted individual's information and personal links but also sensitive content from their connections, thereby posing substantially more detrimental threats. Furthermore, we extend GraphToxin to multiple node removals under both white-box and black-box setting. We highlight the necessity of a worst-case analysis and propose a comprehensive evaluation framework to systematically assess the attack performance under both random and worst-case node removals. This provides a more robust and realistic measure of the vulnerability of graph unlearning methods to graph reconstruction attacks. Our extensive experiments demonstrate the effectiveness and flexibility of GraphToxin. Notably, we show that existing defense mechanisms are largely ineffective against this attack and, in some cases, can even amplify its performance. Given the severe privacy risks posed by GraphToxin, our work underscores the urgent need for the development of more effective and robust defense strategies against this attack.
- Abstract(参考訳): グラフアンラーニングは、要求に応じて機密情報の削除を可能にすることで、"忘れられる権利"の規則に従うための有望なソリューションとして登場した。
しかし、この解決策はばかげたものではない。
複数のパーティが関与すると、新たな攻撃面が生成され、削除されたデータの残余は、未学習のグラフニューラルネットワークに残ることができる。
これらの脆弱性を攻撃者が悪用して、消去されたと思われるサンプルを復元することで、グラフアンラーニングの固有の機能を損なうことができる。
本研究では,グラフアンラーニングに対する最初のグラフ再構成攻撃であるGraphToxinを提案する。
具体的には、完全未学習グラフ回復のためのきめ細かいガイダンスを提供する新しい曲率マッチングモジュールを提案する。
GraphToxinは、削除された個人の情報や個人リンクだけでなく、接続からセンシティブなコンテンツを復元し、より有害な脅威を生じさせることができる。
さらに、ホワイトボックスとブラックボックスの設定の両方で、GraphToxinを複数のノード削除に拡張します。
我々は、最悪のケース分析の必要性を強調し、乱数と最悪のケースのノード削除の両方で攻撃性能を体系的に評価する包括的な評価フレームワークを提案する。
これにより、グラフ再構成攻撃に対するグラフアンラーニング手法の脆弱性のより堅牢で現実的な測定が可能になる。
大規模な実験では、GraphToxinの有効性と柔軟性が実証された。
特に,既存の防御機構はこの攻撃に対してほとんど効果がなく,場合によってはその性能を増幅することさえ可能であることを示す。
GraphToxinが引き起こす厳しいプライバシーリスクを考えると、この攻撃に対してより効果的で堅牢な防衛戦略を開発するための緊急の必要性を、我々の研究は強調している。
関連論文リスト
- Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - Unlearnable Graph: Protecting Graphs from Unauthorized Exploitation [68.59161853439339]
学習不可能なグラフの例を生成するための新しい手法を提案する。
Error-Minimizing Structure Poisoning (EMinS) モジュールを使ってグラフに妄想的だが知覚不可能なノイズを注入することにより、グラフを説明不能にすることができる。
論文 参考訳(メタデータ) (2023-03-05T03:30:22Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Finding MNEMON: Reviving Memories of Node Embeddings [39.206574462957136]
元のグラフのノード埋め込み行列にのみアクセスすることで、敵が適切な精度でエッジを復元できることが示される。
広範囲な実験を通してグラフ回復攻撃の有効性と適用性を示す。
論文 参考訳(メタデータ) (2022-04-14T13:44:26Z) - Unsupervised Graph Poisoning Attack via Contrastive Loss
Back-propagation [18.671374133506838]
本稿では,グラフのコントラスト学習にラベルを頼らない,教師なし勾配に基づく新たな逆攻撃を提案する。
我々の攻撃は教師なしベースライン攻撃よりも優れており、複数の下流タスクにおける教師なし攻撃と同等のパフォーマンスを持つ。
論文 参考訳(メタデータ) (2022-01-20T03:32:21Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Inference Attacks Against Graph Neural Networks [33.19531086886817]
グラフの埋め込みは、グラフ分析問題を解決する強力なツールである。
グラフ埋め込みの共有は興味深いが、関連するプライバシーリスクは未調査だ。
3つの推論攻撃を組み込むことで,グラフ埋め込みの情報漏洩を系統的に調査する。
論文 参考訳(メタデータ) (2021-10-06T10:08:11Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Adversarial Attack Framework on Graph Embedding Models with Limited
Knowledge [126.32842151537217]
現存する作品は通常、ホワイトボックス方式で攻撃を行う。
ブラックボックス駆動で様々なグラフ埋め込みモデルに対処する必要がある。
GF-Attackはグラフ埋め込みモデルの層数を知ることなく効果的な攻撃を行うことができることを示す。
論文 参考訳(メタデータ) (2021-05-26T09:18:58Z) - Adversarial Attacks on Graph Neural Networks via Meta Learning [4.139895092509202]
離散グラフ構造を摂動するノード分類のためのグラフニューラルネットワークのトレーニング時間攻撃について検討する。
私たちのコア原則は、メタグラディエントを使用して、トレーニング時攻撃の根底にある二段階の問題を解決することです。
論文 参考訳(メタデータ) (2019-02-22T09:20:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。