論文の概要: Bkd-FedGNN: A Benchmark for Classification Backdoor Attacks on Federated
Graph Neural Network
- arxiv url: http://arxiv.org/abs/2306.10351v1
- Date: Sat, 17 Jun 2023 13:51:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 22:46:00.348087
- Title: Bkd-FedGNN: A Benchmark for Classification Backdoor Attacks on Federated
Graph Neural Network
- Title(参考訳): bkd-fedgnn:フェデレーショングラフニューラルネットワークにおける分類バックドア攻撃のベンチマーク
- Authors: Fan Liu, Siqi Lai, Yansong Ning, Hao Liu
- Abstract要約: 我々はFedGNNに対するバックドア攻撃のベンチマークであるBkd-FedGNNを提案する。
Bkd-FedGNNはグラフバックドア攻撃をトリガ生成とインジェクションステップに分解する。
我々はまた、FedGNNに対するバックドア攻撃における複数の重要な要因の影響を徹底的に調査した。
- 参考スコア(独自算出の注目度): 8.795321834206058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Graph Neural Network (FedGNN) has recently emerged as a rapidly
growing research topic, as it integrates the strengths of graph neural networks
and federated learning to enable advanced machine learning applications without
direct access to sensitive data. Despite its advantages, the distributed nature
of FedGNN introduces additional vulnerabilities, particularly backdoor attacks
stemming from malicious participants. Although graph backdoor attacks have been
explored, the compounded complexity introduced by the combination of GNNs and
federated learning has hindered a comprehensive understanding of these attacks,
as existing research lacks extensive benchmark coverage and in-depth analysis
of critical factors. To address these limitations, we propose Bkd-FedGNN, a
benchmark for backdoor attacks on FedGNN. Specifically, Bkd-FedGNN decomposes
the graph backdoor attack into trigger generation and injection steps, and
extending the attack to the node-level federated setting, resulting in a
unified framework that covers both node-level and graph-level classification
tasks. Moreover, we thoroughly investigate the impact of multiple critical
factors in backdoor attacks on FedGNN. These factors are categorized into
global-level and local-level factors, including data distribution, the number
of malicious attackers, attack time, overlapping rate, trigger size, trigger
type, trigger position, and poisoning rate. Finally, we conduct comprehensive
evaluations on 13 benchmark datasets and 13 critical factors, comprising 1,725
experimental configurations for node-level and graph-level tasks from six
domains. These experiments encompass over 8,000 individual tests, allowing us
to provide a thorough evaluation and insightful observations that advance our
understanding of backdoor attacks on FedGNN.The Bkd-FedGNN benchmark is
publicly available at https://github.com/usail-hkust/BkdFedGCN.
- Abstract(参考訳): Federated Graph Neural Network(FedGNN)は、グラフニューラルネットワークとフェデレーション学習の強みを統合して、機密データに直接アクセスすることなく高度な機械学習アプリケーションを実現するため、最近急速に成長する研究トピックとして登場した。
そのアドバンテージにもかかわらず、fedgnnの分散性は追加の脆弱性、特に悪意のある参加者によるバックドア攻撃をもたらす。
グラフバックドア攻撃は研究されているが、GNNとフェデレーション学習の組み合わせによって導入された複雑な複雑さは、これらの攻撃の包括的理解を妨げる。
これらの制限に対処するため、FedGNNに対するバックドア攻撃のベンチマークであるBkd-FedGNNを提案する。
具体的には、bkd-fedgnnはグラフバックドア攻撃をトリガ生成とインジェクションステップに分解し、攻撃をノードレベルのフェデレーション設定に拡張することで、ノードレベルとグラフレベルの分類タスクの両方をカバーする統一フレームワークとなる。
さらに,FedGNNに対するバックドア攻撃における複数の重要な要因の影響を徹底的に検討した。
これらの要因は、データ分散、悪意のある攻撃者数、攻撃時間、オーバーラップ率、トリガーサイズ、トリガータイプ、トリガー位置、中毒率など、グローバルレベルおよびローカルレベルの要因に分類される。
最後に、13のベンチマークデータセットと13の重要な要素について総合的な評価を行い、6つのドメインのノードレベルおよびグラフレベルのタスクに関する1,725の実験的な構成を行った。
これらの実験は8,000以上の個別のテストを包含しており、feedgnnのバックドア攻撃に対する理解を深める、徹底した評価と洞察力のある観察を提供することができます。
関連論文リスト
- Securing GNNs: Explanation-Based Identification of Backdoored Training Graphs [13.93535590008316]
グラフニューラルネットワーク(GNN)は、多くのドメインで人気を集めているが、パフォーマンスと倫理的応用を損なう可能性のあるバックドア攻撃に弱い。
本稿では,GNNにおけるバックドア攻撃を検出する新しい手法を提案する。
提案手法は, バックドア攻撃に対するGNNの安全性向上に寄与し, 高い検出性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-03-26T22:41:41Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Adversarial Inter-Group Link Injection Degrades the Fairness of Graph
Neural Networks [15.116231694800787]
本稿では,公正性を低下させることを目的としたグラフニューラルネットワーク(GNN)に対する敵攻撃の存在と有効性を示す。
これらの攻撃は、GNNベースのノード分類において特定のノードのサブグループを不利にする可能性がある。
敵リンク注入がGNN予測の公平性を損なうのかを定性的および実験的に分析する。
論文 参考訳(メタデータ) (2022-09-13T12:46:57Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - Detecting Topology Attacks against Graph Neural Networks [39.968619861265395]
本稿では,GNNに対するトポロジ攻撃による被害者ノード検出問題について検討する。
我々のアプローチは、GNNの本質的なメッセージパッシングの性質に根ざした重要な観測に基づいている。
論文 参考訳(メタデータ) (2022-04-21T13:08:25Z) - More is Better (Mostly): On the Backdoor Attacks in Federated Graph
Neural Networks [15.288284812871945]
グラフニューラルネットワーク(Graph Neural Networks、GNN)は、グラフドメイン情報を処理するためのディープラーニングベースの手法のクラスである。
本稿では,集中型バックドア攻撃 (CBA) と分散バックドア攻撃 (DBA) の2種類のバックドア攻撃を行う。
我々は、両方の攻撃が調査対象の防衛に対して堅牢であることに気付き、フェデレートGNNにおけるバックドア攻撃を新たな脅威とみなす必要がある。
論文 参考訳(メタデータ) (2022-02-07T14:09:39Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - AN-GCN: An Anonymous Graph Convolutional Network Defense Against
Edge-Perturbing Attack [53.06334363586119]
近年の研究では、エッジ摂動攻撃に対するグラフ畳み込みネットワーク(GCN)の脆弱性が明らかにされている。
まず、エッジ摂動攻撃の定式化を一般化し、ノード分類タスクにおけるこのような攻撃に対するGCNの脆弱性を厳密に証明する。
これに続いて、匿名グラフ畳み込みネットワークAN-GCNがエッジ摂動攻撃に対抗するために提案されている。
論文 参考訳(メタデータ) (2020-05-06T08:15:24Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。