論文の概要: More is Better (Mostly): On the Backdoor Attacks in Federated Graph
Neural Networks
- arxiv url: http://arxiv.org/abs/2202.03195v1
- Date: Mon, 7 Feb 2022 14:09:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 22:15:10.445636
- Title: More is Better (Mostly): On the Backdoor Attacks in Federated Graph
Neural Networks
- Title(参考訳): more is better (大部分は): フェデレーショングラフニューラルネットワークにおけるバックドア攻撃について
- Authors: Jing Xu, Rui Wang, Kaitai Liang, Stjepan Picek
- Abstract要約: 本稿では,集中型バックドア攻撃 (CBA) と分散バックドア攻撃 (DBA) の2種類のバックドア攻撃を行う。
CBAは、すべての悪意あるパーティのトレーニング中に同じグローバルトリガを埋め込むことで実行され、DBAは、グローバルトリガを別のローカルトリガに分解し、異なる悪意のあるパーティのトレーニングデータセットに埋め込むことによって実行される。
実験の結果, ほぼすべてのケースにおいて, DBA攻撃成功率はCBAよりも高いが, DBA攻撃成功率はCBAに近いことは稀である。
- 参考スコア(独自算出の注目度): 16.70135285517012
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) are a class of deep learning-based methods for
processing graph domain information. GNNs have recently become a widely used
graph analysis method due to their superior ability to learn representations
for complex graph data. However, due to privacy concerns and regulation
restrictions, centralized GNNs can be difficult to apply to data-sensitive
scenarios. Federated learning (FL) is an emerging technology developed for
privacy-preserving settings when several parties need to train a shared global
model collaboratively. Although many research works have applied FL to train
GNNs (Federated GNNs), there is no research on their robustness to backdoor
attacks.
This paper bridges this gap by conducting two types of backdoor attacks in
Federated GNNs: centralized backdoor attacks (CBA) and distributed backdoor
attacks (DBA). CBA is conducted by embedding the same global trigger during
training for every malicious party, while DBA is conducted by decomposing a
global trigger into separate local triggers and embedding them into the
training dataset of different malicious parties, respectively. Our experiments
show that the DBA attack success rate is higher than CBA in almost all
evaluated cases, while rarely, the DBA attack performance is close to CBA. For
CBA, the attack success rate of all local triggers is similar to the global
trigger even if the training set of the adversarial party is embedded with the
global trigger. To further explore the properties of two backdoor attacks in
Federated GNNs, we evaluate the attack performance for different trigger sizes,
poisoning intensities, and trigger densities, with trigger density being the
most influential.
- Abstract(参考訳): グラフニューラルネットワーク(英: graph neural network、gnns)は、グラフドメイン情報を処理するディープラーニングベースの手法である。
近年,GNNは複雑なグラフデータの表現を学習する能力に優れており,広く利用されているグラフ解析手法となっている。
しかし、プライバシーの懸念と規制の制約のため、集中型GNNはデータに敏感なシナリオに適用することは困難である。
フェデレートラーニング(FL)は、複数のパーティが共同でグローバルモデルを共有する必要がある場合に、プライバシ保護設定のために開発された新興技術である。
多くの研究がGNN(Federated GNN)の訓練にFLを適用しているが、バックドア攻撃に対する堅牢性についての研究は行われていない。
本稿では,集中型バックドアアタック(CBA)と分散バックドアアタック(DBA)という,2種類のバックドアアタックをフェデレートGNNで実施することで,このギャップを埋める。
CBAは、すべての悪意あるパーティのトレーニング中に同じグローバルトリガを埋め込むことで行われ、DBAは、グローバルトリガを別々のローカルトリガに分解し、それぞれ異なる悪意のあるパーティのトレーニングデータセットに埋め込むことによって実行される。
実験の結果, ほぼすべてのケースにおいて, DBA攻撃成功率はCBAよりも高いが, DBA攻撃成功率はCBAに近いことは稀である。
CBAの場合、全てのローカルトリガーの攻撃成功率は、たとえ相手のトレーニングセットにグローバルトリガーが埋め込まれたとしても、グローバルトリガーと似ている。
フェデレートされたGNNにおける2つのバックドア攻撃の特性を更に調査するため、異なるトリガーサイズ、中毒強度、トリガー密度の攻撃性能を評価し、トリガー密度が最も影響を及ぼす。
関連論文リスト
- Backdoor Attack on Vertical Federated Graph Neural Network Learning [6.540725813096829]
Federated Graph Neural Network (FedGNN)は、フェデレーション学習(FL)とグラフニューラルネットワーク(GNN)を組み合わせた、プライバシ保護機械学習技術である。
垂直フェデレーショングラフニューラルネットワーク(VFGNN)はFedGNNの重要なブランチであり、データ機能とラベルが参加者間で分散される。
分散データやラベルへのアクセスや変更が難しいため、バックドアアタックに対するVFGNNの脆弱性はほとんど解明されていない。
VFGNNにおけるバックドア攻撃の最初の方法であるBVGを提案する。ラベルへのアクセスや変更なしに、BVGはマルチホップトリガを使用し、4つしか必要としない。
論文 参考訳(メタデータ) (2024-10-15T05:26:20Z) - "No Matter What You Do": Purifying GNN Models via Backdoor Unlearning [33.07926413485209]
GNNのバックドア攻撃は、攻撃者がトリガーを埋め込むことでグラフデータの一部を修正したという事実にある。
GNNにおける最初のバックドア緩和手法であるGCleanerを提案する。
GCleanerは、クリーンデータのわずか1%でバックドア攻撃の成功率を10%に下げることができ、ほぼ無視できるモデル性能の低下がある。
論文 参考訳(メタデータ) (2024-10-02T06:30:49Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Transferable Graph Backdoor Attack [13.110473828583725]
グラフニューラルネットワーク(GNN)は多くのグラフマイニングタスクで大きな成功を収めています。
GNNは、グラフ構造とノードの特徴の両方において、目立たない摂動に対して脆弱である。
本稿では,TRAP攻撃,Transferable GRAPhバックドア攻撃について述べる。
論文 参考訳(メタデータ) (2022-06-21T06:25:37Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Adapting Membership Inference Attacks to GNN for Graph Classification:
Approaches and Implications [32.631077336656936]
グラフニューラルネットワーク(GNN)に対するメンバーシップ推論攻撃(MIA)は、深刻なプライバシー上の懸念を引き起こす。
グラフレベル分類のためのGNNに対するMIAの第一歩を踏み出します。
我々は、異なる敵の能力から、トレーニングベースの攻撃としきい値ベースの攻撃という2つのタイプの攻撃を提示し、実装する。
論文 参考訳(メタデータ) (2021-10-17T08:41:21Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Explainability-based Backdoor Attacks Against Graph Neural Networks [9.179577599489559]
ニューラルネットワークにはバックドア攻撃に関する多くの研究があるが、グラフニューラルネットワーク(gnn)を考えるものはごくわずかである。
我々は2つの強力なGNN説明可能性アプローチを適用し、最適なトリガー注入位置を選択し、2つの攻撃目標を達成します。
ベンチマークデータセットと最先端ニューラルネットワークモデルを用いた実験結果から,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2021-04-08T10:43:40Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。