論文の概要: How Feasible is Augmenting Fake Nodes with Learnable Features as a Counter-strategy against Link Stealing Attacks?
- arxiv url: http://arxiv.org/abs/2503.09726v1
- Date: Wed, 12 Mar 2025 18:16:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:53:28.143506
- Title: How Feasible is Augmenting Fake Nodes with Learnable Features as a Counter-strategy against Link Stealing Attacks?
- Title(参考訳): リンクステアリング攻撃に対する対策として、学習可能な機能を備えたフェイクノードの増加は可能か?
- Authors: Mir Imtiaz Mostafiz, Imtiaz Karim, Elisa Bertino,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフベースの予測タスクに広く使われ、デプロイされている。
攻撃は、潜在的に機密性の高い情報を漏洩することでユーザーのプライバシーを危うくする可能性がある。
我々は「$(N)$ode $(A)$ugmentation for $(R)$estricting $(G)$raphs from $(I)$nsinuating their $(S)$tructure」というアプローチを提案する。
- 参考スコア(独自算出の注目度): 12.370608043864944
- License:
- Abstract: Graph Neural Networks (GNNs) are widely used and deployed for graph-based prediction tasks. However, as good as GNNs are for learning graph data, they also come with the risk of privacy leakage. For instance, an attacker can run carefully crafted queries on the GNNs and, from the responses, can infer the existence of an edge between a pair of nodes. This attack, dubbed as a "link-stealing" attack, can jeopardize the user's privacy by leaking potentially sensitive information. To protect against this attack, we propose an approach called "$(N)$ode $(A)$ugmentation for $(R)$estricting $(G)$raphs from $(I)$nsinuating their $(S)$tructure" ($NARGIS$) and study its feasibility. $NARGIS$ is focused on reshaping the graph embedding space so that the posterior from the GNN model will still provide utility for the prediction task but will introduce ambiguity for the link-stealing attackers. To this end, $NARGIS$ applies spectral clustering on the given graph to facilitate it being augmented with new nodes -- that have learned features instead of fixed ones. It utilizes tri-level optimization for learning parameters for the GNN model, surrogate attacker model, and our defense model (i.e. learnable node features). We extensively evaluate $NARGIS$ on three benchmark citation datasets over eight knowledge availability settings for the attackers. We also evaluate the model fidelity and defense performance on influence-based link inference attacks. Through our studies, we have figured out the best feature of $NARGIS$ -- its superior fidelity-privacy performance trade-off in a significant number of cases. We also have discovered in which cases the model needs to be improved, and proposed ways to integrate different schemes to make the model more robust against link stealing attacks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフベースの予測タスクに広く使われ、デプロイされている。
しかし、GNNがグラフデータを学習するのと同様に、プライバシー漏洩のリスクも伴う。
例えば、攻撃者はGNN上で慎重にクエリを実行でき、応答からノード間のエッジの存在を推測することができる。
この攻撃は「リンクステアリング」攻撃と呼ばれ、機密情報を漏洩することでユーザーのプライバシーを脅かす可能性がある。
この攻撃を防ぐため、$(N)$ode $(A)$ugmentation for $(R)$estricting $(G)$raphs from $(I)$nsinating their $(S)$tructure(NARGIS$)というアプローチを提案し、その実現可能性について検討する。
NARGIS$はグラフ埋め込み空間を再構築することに重点を置いており、GNNモデルから後方で予測タスクのユーティリティを提供するが、リンクステアリングアタッカーにあいまいさを導入する。
この目的のために、$NARGIS$は、特定のグラフにスペクトルクラスタリングを適用して、新しいノードで拡張できるようにします。
GNNモデル、サロゲート攻撃モデル、および我々の防衛モデル(すなわち学習可能なノード特徴)の学習パラメータの3レベル最適化を利用する。
我々は,攻撃者に対する8つの知識可用性設定に対して,3つのベンチマーク引用データセットに対して$NARGIS$を広範囲に評価した。
また,影響に基づくリンク推論攻撃に対するモデル忠実度と防御性能の評価を行った。
調査を通じて、我々は、非常に多くのケースにおいて、その優れたフィデリティプライバシパフォーマンストレードオフである$NARGIS$の最高の特徴を見出しました。
また、どのケースでモデルを改善する必要があるかを発見し、異なるスキームを統合して、リンク盗難攻撃に対してモデルをより堅牢にする方法を提案しました。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Bandits for Structure Perturbation-based Black-box Attacks to Graph
Neural Networks with Theoretical Guarantees [60.61846004535707]
グラフニューラルネットワーク(GNN)は多くのグラフベースのタスクで最先端のパフォーマンスを達成した。
攻撃者はグラフ構造をわずかに摂動させることでGNNモデルを誤解させることができる。
本稿では,構造摂動を伴うGNNに対するブラックボックス攻撃と理論的保証について考察する。
論文 参考訳(メタデータ) (2022-05-07T04:17:25Z) - Task and Model Agnostic Adversarial Attack on Graph Neural Networks [8.075575946756759]
グラフニューラルネットワーク(GNN)は、様々な予測タスクにおける印象的なパフォーマンスのため、業界内で大きな採用が見られた。
本研究では、GNNのこの側面を調査し、脆弱性を特定し、よりセキュアで堅牢なGNNの開発につながる可能性のあるグラフプロパティにリンクする。
論文 参考訳(メタデータ) (2021-12-25T18:39:21Z) - Graph-Fraudster: Adversarial Attacks on Graph Neural Network Based
Vertical Federated Learning [2.23816711660697]
グローバルモデルをトレーニングすることで,局所的なデータ保護を実現するために,垂直連合学習(VFL)を提案する。
グラフ構造データの場合、GNNモデルを用いてVFLフレームワークを構築することは自然な考え方である。
GNNモデルは敵の攻撃に弱いことが証明されている。
本稿では,GVFLが,集中型GNNモデルと同様の敵攻撃に対して脆弱であることを明らかにする。
論文 参考訳(メタデータ) (2021-10-13T03:06:02Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Efficient, Direct, and Restricted Black-Box Graph Evasion Attacks to
Any-Layer Graph Neural Networks via Influence Function [62.89388227354517]
グラフデータから学習する主流手法であるグラフニューラルネットワーク(GNN)は、グラフ回避攻撃に対して脆弱である。
既存の作業には、1)2層GNNを直接攻撃すること、2)非効率であること、3)GNNモデルパラメータの完全あるいは一部を知る必要があること、の2つの欠点の少なくとも1つがある。
本報告では,エフェクトベースの非効率,直接的,制限されたブラックボックス回避攻撃を,幻影層GNNに対して提案する。
論文 参考訳(メタデータ) (2020-09-01T03:24:51Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。