論文の概要: More is Better (Mostly): On the Backdoor Attacks in Federated Graph
Neural Networks
- arxiv url: http://arxiv.org/abs/2202.03195v5
- Date: Thu, 20 Apr 2023 17:47:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 17:55:46.717251
- Title: More is Better (Mostly): On the Backdoor Attacks in Federated Graph
Neural Networks
- Title(参考訳): more is better (大部分は): フェデレーショングラフニューラルネットワークにおけるバックドア攻撃について
- Authors: Jing Xu, Rui Wang, Stefanos Koffas, Kaitai Liang, Stjepan Picek
- Abstract要約: グラフニューラルネットワーク(Graph Neural Networks、GNN)は、グラフドメイン情報を処理するためのディープラーニングベースの手法のクラスである。
本稿では,集中型バックドア攻撃 (CBA) と分散バックドア攻撃 (DBA) の2種類のバックドア攻撃を行う。
我々は、両方の攻撃が調査対象の防衛に対して堅牢であることに気付き、フェデレートGNNにおけるバックドア攻撃を新たな脅威とみなす必要がある。
- 参考スコア(独自算出の注目度): 15.288284812871945
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) are a class of deep learning-based methods for
processing graph domain information. GNNs have recently become a widely used
graph analysis method due to their superior ability to learn representations
for complex graph data. However, due to privacy concerns and regulation
restrictions, centralized GNNs can be difficult to apply to data-sensitive
scenarios. Federated learning (FL) is an emerging technology developed for
privacy-preserving settings when several parties need to train a shared global
model collaboratively. Although several research works have applied FL to train
GNNs (Federated GNNs), there is no research on their robustness to backdoor
attacks.
This paper bridges this gap by conducting two types of backdoor attacks in
Federated GNNs: centralized backdoor attacks (CBA) and distributed backdoor
attacks (DBA). Our experiments show that the DBA attack success rate is higher
than CBA in almost all evaluated cases. For CBA, the attack success rate of all
local triggers is similar to the global trigger even if the training set of the
adversarial party is embedded with the global trigger. To further explore the
properties of two backdoor attacks in Federated GNNs, we evaluate the attack
performance for a different number of clients, trigger sizes, poisoning
intensities, and trigger densities. Moreover, we explore the robustness of DBA
and CBA against one defense. We find that both attacks are robust against the
investigated defense, necessitating the need to consider backdoor attacks in
Federated GNNs as a novel threat that requires custom defenses.
- Abstract(参考訳): グラフニューラルネットワーク(英: graph neural network、gnns)は、グラフドメイン情報を処理するディープラーニングベースの手法である。
近年,GNNは複雑なグラフデータの表現を学習する能力に優れており,広く利用されているグラフ解析手法となっている。
しかし、プライバシーの懸念と規制の制約のため、集中型GNNはデータに敏感なシナリオに適用することは困難である。
フェデレートラーニング(FL)は、複数のパーティが共同でグローバルモデルを共有する必要がある場合に、プライバシ保護設定のために開発された新興技術である。
いくつかの研究がGNN(Federated GNN)の訓練にFLを適用しているが、バックドア攻撃に対する堅牢性についての研究はない。
本稿では,集中型バックドアアタック(CBA)と分散バックドアアタック(DBA)という,2種類のバックドアアタックをフェデレートGNNで実施することで,このギャップを埋める。
実験の結果, ほぼすべての症例において, DBA 攻撃成功率は CBA よりも高いことがわかった。
CBAの場合、全てのローカルトリガーの攻撃成功率は、たとえ相手のトレーニングセットにグローバルトリガーが埋め込まれたとしても、グローバルトリガーと似ている。
フェデレートgnnにおける2つのバックドア攻撃の特性をさらに探究するために,異なる数のクライアントに対する攻撃性能,トリガサイズ,中毒強度,トリガ密度を評価した。
さらに,DBAとCBAのロバスト性について検討した。
我々は、双方の攻撃が調査対象の防衛に対して堅牢であることに気付き、連邦GNNにおけるバックドア攻撃を、カスタムディフェンスを必要とする新たな脅威として考慮する必要がある。
関連論文リスト
- Backdoor Attack on Vertical Federated Graph Neural Network Learning [6.540725813096829]
Federated Graph Neural Network (FedGNN)は、フェデレーション学習(FL)とグラフニューラルネットワーク(GNN)を組み合わせた、プライバシ保護機械学習技術である。
垂直フェデレーショングラフニューラルネットワーク(VFGNN)はFedGNNの重要なブランチであり、データ機能とラベルが参加者間で分散される。
分散データやラベルへのアクセスや変更が難しいため、バックドアアタックに対するVFGNNの脆弱性はほとんど解明されていない。
VFGNNにおけるバックドア攻撃の最初の方法であるBVGを提案する。ラベルへのアクセスや変更なしに、BVGはマルチホップトリガを使用し、4つしか必要としない。
論文 参考訳(メタデータ) (2024-10-15T05:26:20Z) - "No Matter What You Do": Purifying GNN Models via Backdoor Unlearning [33.07926413485209]
GNNのバックドア攻撃は、攻撃者がトリガーを埋め込むことでグラフデータの一部を修正したという事実にある。
GNNにおける最初のバックドア緩和手法であるGCleanerを提案する。
GCleanerは、クリーンデータのわずか1%でバックドア攻撃の成功率を10%に下げることができ、ほぼ無視できるモデル性能の低下がある。
論文 参考訳(メタデータ) (2024-10-02T06:30:49Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Transferable Graph Backdoor Attack [13.110473828583725]
グラフニューラルネットワーク(GNN)は多くのグラフマイニングタスクで大きな成功を収めています。
GNNは、グラフ構造とノードの特徴の両方において、目立たない摂動に対して脆弱である。
本稿では,TRAP攻撃,Transferable GRAPhバックドア攻撃について述べる。
論文 参考訳(メタデータ) (2022-06-21T06:25:37Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Adapting Membership Inference Attacks to GNN for Graph Classification:
Approaches and Implications [32.631077336656936]
グラフニューラルネットワーク(GNN)に対するメンバーシップ推論攻撃(MIA)は、深刻なプライバシー上の懸念を引き起こす。
グラフレベル分類のためのGNNに対するMIAの第一歩を踏み出します。
我々は、異なる敵の能力から、トレーニングベースの攻撃としきい値ベースの攻撃という2つのタイプの攻撃を提示し、実装する。
論文 参考訳(メタデータ) (2021-10-17T08:41:21Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Explainability-based Backdoor Attacks Against Graph Neural Networks [9.179577599489559]
ニューラルネットワークにはバックドア攻撃に関する多くの研究があるが、グラフニューラルネットワーク(gnn)を考えるものはごくわずかである。
我々は2つの強力なGNN説明可能性アプローチを適用し、最適なトリガー注入位置を選択し、2つの攻撃目標を達成します。
ベンチマークデータセットと最先端ニューラルネットワークモデルを用いた実験結果から,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2021-04-08T10:43:40Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。