論文の概要: Unlearning Inversion Attacks for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2506.00808v1
- Date: Sun, 01 Jun 2025 03:23:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.671813
- Title: Unlearning Inversion Attacks for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークの非学習インバージョンアタック
- Authors: Jiahao Zhang, Yilong Wang, Zhiwei Zhang, Xiaorui Liu, Suhang Wang,
- Abstract要約: 未学習のGNNへのブラックボックスアクセスと部分グラフ知識のみを考慮すれば、敵は削除されたエッジを再構築できるのだろうか?
我々は、未学習エッジと保持エッジの確率相似性しきい値の変化と、未学習エッジの特定が困難である2つの主要な課題を特定し、TrendAttackでそれらに対処する。
実世界の4つのデータセットの実験では、TrendAttackが最先端のGNNメンバシップ推論ベースラインを大幅に上回っており、現在のグラフアンラーニングメソッドで重要なプライバシの脆弱性が明らかにされている。
- 参考スコア(独自算出の注目度): 37.7189834578513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph unlearning methods aim to efficiently remove the impact of sensitive data from trained GNNs without full retraining, assuming that deleted information cannot be recovered. In this work, we challenge this assumption by introducing the graph unlearning inversion attack: given only black-box access to an unlearned GNN and partial graph knowledge, can an adversary reconstruct the removed edges? We identify two key challenges: varying probability-similarity thresholds for unlearned versus retained edges, and the difficulty of locating unlearned edge endpoints, and address them with TrendAttack. First, we derive and exploit the confidence pitfall, a theoretical and empirical pattern showing that nodes adjacent to unlearned edges exhibit a large drop in model confidence. Second, we design an adaptive prediction mechanism that applies different similarity thresholds to unlearned and other membership edges. Our framework flexibly integrates existing membership inference techniques and extends them with trend features. Experiments on four real-world datasets demonstrate that TrendAttack significantly outperforms state-of-the-art GNN membership inference baselines, exposing a critical privacy vulnerability in current graph unlearning methods.
- Abstract(参考訳): グラフアンラーニング手法は、削除された情報が回復できないと仮定して、完全に再トレーニングすることなく、トレーニングされたGNNからセンシティブなデータの影響を効率的に除去することを目的としている。
本研究では,未学習のGNNへのブラックボックスアクセスと部分グラフ知識のみを前提としたグラフアンラーニング・インバージョン攻撃を導入することで,この仮定に挑戦する。
我々は、未学習エッジと保持エッジの確率相似性しきい値の変化と、未学習エッジの特定が困難である2つの主要な課題を特定し、TrendAttackでそれらに対処する。
まず、未開きエッジに隣接するノードがモデル信頼度を大幅に低下させることを示す理論的かつ実証的なパターンである信頼の落とし穴を導出し、活用する。
第2に、未学習および他の会員エッジに異なる類似度閾値を適用する適応予測機構を設計する。
我々のフレームワークは、既存のメンバシップ推論技術を柔軟に統合し、トレンド機能で拡張します。
実世界の4つのデータセットの実験では、TrendAttackが最先端のGNNメンバシップ推論ベースラインを大幅に上回っており、現在のグラフアンラーニングメソッドで重要なプライバシの脆弱性が明らかにされている。
関連論文リスト
- Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - ADEdgeDrop: Adversarial Edge Dropping for Robust Graph Neural Networks [53.41164429486268]
グラフニューラルネットワーク(GNN)は、近隣ノードからグラフ構造化情報を収集する強力な能力を示した。
GNNの性能は、ノイズや冗長なグラフデータによって引き起こされる一般化の貧弱さと脆弱な堅牢性によって制限される。
本稿では,エッジの除去を誘導する対向エッジ予測器を利用する新しい対向エッジドロップ法 (ADEdgeDrop) を提案する。
論文 参考訳(メタデータ) (2024-03-14T08:31:39Z) - Unlink to Unlearn: Simplifying Edge Unlearning in GNNs [24.987140675476464]
グラフニューラルネットワーク(GNN)におけるアンラーニングは、アカデミックにおける顕著な研究フロンティアとして現れている。
我々の研究は、エッジ・アンラーニング(エッジ・アンラーニング)に焦点を当てている。
グラフ構造から左端を解き放つことによって、未学習を容易にする新しい方法であるtextbfUnlink to Unlearn を開発した。
論文 参考訳(メタデータ) (2024-02-16T13:58:23Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - Curriculum Learning for Graph Neural Networks: Which Edges Should We
Learn First [13.37867275976255]
本研究は, 難易度から難易度, 難易度に応じて, より多くのエッジをトレーニングに組み込む新しい戦略を提案する。
提案手法の強みは,学習した表現の一般化能力とロバスト性の向上である。
論文 参考訳(メタデータ) (2023-10-28T15:35:34Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。