論文の概要: Bkd-FedGNN: A Benchmark for Classification Backdoor Attacks on Federated
Graph Neural Network
- arxiv url: http://arxiv.org/abs/2306.10351v1
- Date: Sat, 17 Jun 2023 13:51:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 22:46:00.348087
- Title: Bkd-FedGNN: A Benchmark for Classification Backdoor Attacks on Federated
Graph Neural Network
- Title(参考訳): bkd-fedgnn:フェデレーショングラフニューラルネットワークにおける分類バックドア攻撃のベンチマーク
- Authors: Fan Liu, Siqi Lai, Yansong Ning, Hao Liu
- Abstract要約: 我々はFedGNNに対するバックドア攻撃のベンチマークであるBkd-FedGNNを提案する。
Bkd-FedGNNはグラフバックドア攻撃をトリガ生成とインジェクションステップに分解する。
我々はまた、FedGNNに対するバックドア攻撃における複数の重要な要因の影響を徹底的に調査した。
- 参考スコア(独自算出の注目度): 8.795321834206058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Graph Neural Network (FedGNN) has recently emerged as a rapidly
growing research topic, as it integrates the strengths of graph neural networks
and federated learning to enable advanced machine learning applications without
direct access to sensitive data. Despite its advantages, the distributed nature
of FedGNN introduces additional vulnerabilities, particularly backdoor attacks
stemming from malicious participants. Although graph backdoor attacks have been
explored, the compounded complexity introduced by the combination of GNNs and
federated learning has hindered a comprehensive understanding of these attacks,
as existing research lacks extensive benchmark coverage and in-depth analysis
of critical factors. To address these limitations, we propose Bkd-FedGNN, a
benchmark for backdoor attacks on FedGNN. Specifically, Bkd-FedGNN decomposes
the graph backdoor attack into trigger generation and injection steps, and
extending the attack to the node-level federated setting, resulting in a
unified framework that covers both node-level and graph-level classification
tasks. Moreover, we thoroughly investigate the impact of multiple critical
factors in backdoor attacks on FedGNN. These factors are categorized into
global-level and local-level factors, including data distribution, the number
of malicious attackers, attack time, overlapping rate, trigger size, trigger
type, trigger position, and poisoning rate. Finally, we conduct comprehensive
evaluations on 13 benchmark datasets and 13 critical factors, comprising 1,725
experimental configurations for node-level and graph-level tasks from six
domains. These experiments encompass over 8,000 individual tests, allowing us
to provide a thorough evaluation and insightful observations that advance our
understanding of backdoor attacks on FedGNN.The Bkd-FedGNN benchmark is
publicly available at https://github.com/usail-hkust/BkdFedGCN.
- Abstract(参考訳): Federated Graph Neural Network(FedGNN)は、グラフニューラルネットワークとフェデレーション学習の強みを統合して、機密データに直接アクセスすることなく高度な機械学習アプリケーションを実現するため、最近急速に成長する研究トピックとして登場した。
そのアドバンテージにもかかわらず、fedgnnの分散性は追加の脆弱性、特に悪意のある参加者によるバックドア攻撃をもたらす。
グラフバックドア攻撃は研究されているが、GNNとフェデレーション学習の組み合わせによって導入された複雑な複雑さは、これらの攻撃の包括的理解を妨げる。
これらの制限に対処するため、FedGNNに対するバックドア攻撃のベンチマークであるBkd-FedGNNを提案する。
具体的には、bkd-fedgnnはグラフバックドア攻撃をトリガ生成とインジェクションステップに分解し、攻撃をノードレベルのフェデレーション設定に拡張することで、ノードレベルとグラフレベルの分類タスクの両方をカバーする統一フレームワークとなる。
さらに,FedGNNに対するバックドア攻撃における複数の重要な要因の影響を徹底的に検討した。
これらの要因は、データ分散、悪意のある攻撃者数、攻撃時間、オーバーラップ率、トリガーサイズ、トリガータイプ、トリガー位置、中毒率など、グローバルレベルおよびローカルレベルの要因に分類される。
最後に、13のベンチマークデータセットと13の重要な要素について総合的な評価を行い、6つのドメインのノードレベルおよびグラフレベルのタスクに関する1,725の実験的な構成を行った。
これらの実験は8,000以上の個別のテストを包含しており、feedgnnのバックドア攻撃に対する理解を深める、徹底した評価と洞察力のある観察を提供することができます。
関連論文リスト
- Backdoor Attack on Vertical Federated Graph Neural Network Learning [6.540725813096829]
Federated Graph Neural Network (FedGNN)は、フェデレーション学習(FL)とグラフニューラルネットワーク(GNN)を組み合わせた、プライバシ保護機械学習技術である。
垂直フェデレーショングラフニューラルネットワーク(VFGNN)はFedGNNの重要なブランチであり、データ機能とラベルが参加者間で分散される。
分散データやラベルへのアクセスや変更が難しいため、バックドアアタックに対するVFGNNの脆弱性はほとんど解明されていない。
VFGNNにおけるバックドア攻撃の最初の方法であるBVGを提案する。ラベルへのアクセスや変更なしに、BVGはマルチホップトリガを使用し、4つしか必要としない。
論文 参考訳(メタデータ) (2024-10-15T05:26:20Z) - Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Adversarial Inter-Group Link Injection Degrades the Fairness of Graph
Neural Networks [15.116231694800787]
本稿では,公正性を低下させることを目的としたグラフニューラルネットワーク(GNN)に対する敵攻撃の存在と有効性を示す。
これらの攻撃は、GNNベースのノード分類において特定のノードのサブグループを不利にする可能性がある。
敵リンク注入がGNN予測の公平性を損なうのかを定性的および実験的に分析する。
論文 参考訳(メタデータ) (2022-09-13T12:46:57Z) - Detecting Topology Attacks against Graph Neural Networks [39.968619861265395]
本稿では,GNNに対するトポロジ攻撃による被害者ノード検出問題について検討する。
我々のアプローチは、GNNの本質的なメッセージパッシングの性質に根ざした重要な観測に基づいている。
論文 参考訳(メタデータ) (2022-04-21T13:08:25Z) - More is Better (Mostly): On the Backdoor Attacks in Federated Graph
Neural Networks [15.288284812871945]
グラフニューラルネットワーク(Graph Neural Networks、GNN)は、グラフドメイン情報を処理するためのディープラーニングベースの手法のクラスである。
本稿では,集中型バックドア攻撃 (CBA) と分散バックドア攻撃 (DBA) の2種類のバックドア攻撃を行う。
我々は、両方の攻撃が調査対象の防衛に対して堅牢であることに気付き、フェデレートGNNにおけるバックドア攻撃を新たな脅威とみなす必要がある。
論文 参考訳(メタデータ) (2022-02-07T14:09:39Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - AN-GCN: An Anonymous Graph Convolutional Network Defense Against
Edge-Perturbing Attack [53.06334363586119]
近年の研究では、エッジ摂動攻撃に対するグラフ畳み込みネットワーク(GCN)の脆弱性が明らかにされている。
まず、エッジ摂動攻撃の定式化を一般化し、ノード分類タスクにおけるこのような攻撃に対するGCNの脆弱性を厳密に証明する。
これに続いて、匿名グラフ畳み込みネットワークAN-GCNがエッジ摂動攻撃に対抗するために提案されている。
論文 参考訳(メタデータ) (2020-05-06T08:15:24Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。