論文の概要: Double Whammy: Stealthy Data Manipulation aided Reconstruction Attack on Graph Federated Learning
- arxiv url: http://arxiv.org/abs/2411.02866v1
- Date: Tue, 05 Nov 2024 07:12:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 15:00:23.515526
- Title: Double Whammy: Stealthy Data Manipulation aided Reconstruction Attack on Graph Federated Learning
- Title(参考訳): Double Whammy: グラフフェデレーション学習における復元攻撃を支援するステルスデータ操作
- Authors: Jinyin Chen, Minying Ma, Haibin Zheng, Qi Xuan,
- Abstract要約: 我々はDMan4Recと呼ばれるGFLに対する最初のデータ操作支援リコンストラクション攻撃を提案する。
悪意のあるクライアントは、ローカルに収集したデータを操作して、良質なデータからグラフを盗むプライバシーを強化するために生まれました。
4つの実際のデータセットと3つのGNNモデルの実験により、DMan4RecがSOTA(State-of-the-art)攻撃性能を達成することが示された。
- 参考スコア(独自算出の注目度): 5.979778557940212
- License:
- Abstract: Recent research has constructed successful graph reconstruction attack (GRA) on GFL. But these attacks are still challenged in aspects of effectiveness and stealth. To address the issues, we propose the first Data Manipulation aided Reconstruction attack on GFL, dubbed as DMan4Rec. The malicious client is born to manipulate its locally collected data to enhance graph stealing privacy from benign ones, so as to construct double whammy on GFL. It differs from previous work in three terms: (1) effectiveness - to fully utilize the sparsity and feature smoothness of the graph, novel penalty terms are designed adaptive to diverse similarity functions for connected and unconnected node pairs, as well as incorporation label smoothing on top of the original cross-entropy loss. (2) scalability - DMan4Rec is capable of both white-box and black-box attacks via training a supervised model to infer the posterior probabilities obtained from limited queries (3) stealthiness - by manipulating the malicious client's node features, it can maintain the overall graph structure's invariance and conceal the attack. Comprehensive experiments on four real datasets and three GNN models demonstrate that DMan4Rec achieves the state-of-the-art (SOTA) attack performance, e.g., the attack AUC and precision improved by 9.2% and 10.5% respectively compared with the SOTA baselines. Particularly, DMan4Rec achieves an AUC score and a precision score of up to 99.59% and 99.56%, respectively in black-box setting. Nevertheless, the complete overlap of the distribution graphs supports the stealthiness of the attack. Besides, DMan4Rec still beats the defensive GFL, which alarms a new threat to GFL.
- Abstract(参考訳): 近年、GFL上でグラフ再構成攻撃(GRA)が成功している。
しかし、これらの攻撃は効果とステルスの面で依然として挑戦されている。
この問題に対処するため、我々はDMan4Recと呼ばれるGFLに対する初のデータマニピュレーション支援リコンストラクション攻撃を提案する。
悪意のあるクライアントは、ローカルに収集したデータを操作して、グラフ盗難のプライバシーを強化し、GFL上でダブル・ハンミーを構築するために生まれた。
1) グラフの空間性と特徴の滑らか性を完全に活用するために、新しいペナルティ項は、接続されたノード対と接続されていないノード対に対して様々な類似性関数に適応するように設計され、また、元のクロスエントロピー損失の上にスムーズな組込みラベルが作られる。
2)スケーラビリティ - DMan4Recは、教師付きモデルを使用してホワイトボックスとブラックボックスの攻撃の両方をトレーニングし、限られたクエリから得られた後部確率を推測する。
4つの実際のデータセットと3つのGNNモデルに関する総合的な実験により、DMan4RecはSOTAベースラインと比較して、攻撃AUCと精度が9.2%、精度が10.5%向上した。
特にDMan4Recは、ブラックボックス設定でそれぞれ99.59%と99.56%のAUCスコアを達成している。
それでも、分散グラフの完全な重複は、攻撃のステルス性を支持する。
さらにDMan4Recは、GFLに対する新たな脅威を警告する防御的なGFLをいまだに打ち負かしている。
関連論文リスト
- DM4Steal: Diffusion Model For Link Stealing Attack On Graph Neural Networks [3.339975415342309]
これまでの研究によると、悪意のあるユーザは補助的な知識を利用して、ターゲットグラフのセンシティブなリンクデータを抽出することができた。
これはレコメンデーションシステムで使用されるデータの完全性と機密性に重大なリスクをもたらす。
本稿では,拡散モデルに基づくリンク盗難攻撃,DM4Stealを提案する。
論文 参考訳(メタデータ) (2024-11-05T06:54:38Z) - Distributed Backdoor Attacks on Federated Graph Learning and Certified Defenses [50.53476890313741]
我々は,FedGLに対する効果的な,ステルス的で永続的なバックドア攻撃を提案する。
我々は,任意の位置において任意の形状のトリガに対して,バックドアのFedGLモデルに対する認証された防御を開発する。
我々の攻撃結果は、ほぼ全てのデータセットで90%以上のバックドア精度が得られることを示している。
論文 参考訳(メタデータ) (2024-07-12T02:43:44Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Constrained Gradient Descent: A Powerful and Principled Evasion Attack
Against Neural Networks [19.443306494201334]
我々は,攻撃者の目的の直感に従って,攻撃対象のホワイトボックスを攻撃対象とするいくつかのイノベーションを紹介した。
まず,ターゲット攻撃の目的を明確に把握する新たな損失関数を提案する。
第2に,誤分類対象と$L_infty$距離制限の両方を捉えた損失関数のさらなる改良版を用いた新たな攻撃手法を提案する。
論文 参考訳(メタデータ) (2021-12-28T17:36:58Z) - Graph-Fraudster: Adversarial Attacks on Graph Neural Network Based
Vertical Federated Learning [2.23816711660697]
グローバルモデルをトレーニングすることで,局所的なデータ保護を実現するために,垂直連合学習(VFL)を提案する。
グラフ構造データの場合、GNNモデルを用いてVFLフレームワークを構築することは自然な考え方である。
GNNモデルは敵の攻撃に弱いことが証明されている。
本稿では,GVFLが,集中型GNNモデルと同様の敵攻撃に対して脆弱であることを明らかにする。
論文 参考訳(メタデータ) (2021-10-13T03:06:02Z) - Query-based Adversarial Attacks on Graph with Fake Nodes [32.67989796394633]
そこで本研究では,元のグラフに偽ノードの集合を導入することで,新たな敵攻撃を提案する。
具体的には、各被害者ノードに対して、最も敵対的な特徴を取得するよう、被害者モデルに問い合わせる。
私たちの攻撃は実用的で目立たない方法で行われます。
論文 参考訳(メタデータ) (2021-09-27T14:19:17Z) - Decision-based Universal Adversarial Attack [55.76371274622313]
ブラックボックス設定では、現在の普遍的敵攻撃法は代用モデルを用いて摂動を生成する。
効率的な決定に基づくユニバーサルアタック(DUAttack)を提案する。
DUAttackの有効性は、他の最先端攻撃との比較によって検証される。
論文 参考訳(メタデータ) (2020-09-15T12:49:03Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - DefenseVGAE: Defending against Adversarial Attacks on Graph Data via a
Variational Graph Autoencoder [22.754141951413786]
グラフニューラルネットワーク(GNN)は、グラフデータ上のタスクに対して顕著なパフォーマンスを達成する。
近年の研究では、敵対的な構造的摂動に非常に弱いことが示されており、その結果は信頼できない。
本稿では,変分グラフオートエンコーダ(VGAE)を利用した新しいフレームワークであるDefenseVGAEを提案する。
論文 参考訳(メタデータ) (2020-06-16T03:30:23Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。