論文の概要: Crossfire: An Elastic Defense Framework for Graph Neural Networks Under Bit Flip Attacks
- arxiv url: http://arxiv.org/abs/2501.13776v1
- Date: Thu, 23 Jan 2025 15:53:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:57:36.514544
- Title: Crossfire: An Elastic Defense Framework for Graph Neural Networks Under Bit Flip Attacks
- Title(参考訳): Crossfire: ビットフリップ攻撃によるグラフニューラルネットワークの弾力的防御フレームワーク
- Authors: Lorenz Kummer, Samir Moustafa, Wilfried Gansterer, Nils Kriege,
- Abstract要約: ビット・フリップ・アタック(Bit Flip Attacks, BFA)は、畳み込みニューラルネットワーク(英語版)のために開発された、よく確立された敵攻撃のクラスである。
BFAはグラフニューラルネットワーク(GNN)をターゲットに拡張され、重大な脆弱性が明らかになった。
そこで我々は,ハッシングとハニーポットを組み合わせるハイブリッド手法であるCrossfireを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Bit Flip Attacks (BFAs) are a well-established class of adversarial attacks, originally developed for Convolutional Neural Networks within the computer vision domain. Most recently, these attacks have been extended to target Graph Neural Networks (GNNs), revealing significant vulnerabilities. This new development naturally raises questions about the best strategies to defend GNNs against BFAs, a challenge for which no solutions currently exist. Given the applications of GNNs in critical fields, any defense mechanism must not only maintain network performance, but also verifiably restore the network to its pre-attack state. Verifiably restoring the network to its pre-attack state also eliminates the need for costly evaluations on test data to ensure network quality. We offer first insights into the effectiveness of existing honeypot- and hashing-based defenses against BFAs adapted from the computer vision domain to GNNs, and characterize the shortcomings of these approaches. To overcome their limitations, we propose Crossfire, a hybrid approach that exploits weight sparsity and combines hashing and honeypots with bit-level correction of out-of-distribution weight elements to restore network integrity. Crossfire is retraining-free and does not require labeled data. Averaged over 2,160 experiments on six benchmark datasets, Crossfire offers a 21.8% higher probability than its competitors of reconstructing a GNN attacked by a BFA to its pre-attack state. These experiments cover up to 55 bit flips from various attacks. Moreover, it improves post-repair prediction quality by 10.85%. Computational and storage overheads are negligible compared to the inherent complexity of even the simplest GNNs.
- Abstract(参考訳): Bit Flip Attacks(ビット・フリップ・アタック、BFA)は、コンピュータビジョン領域内の畳み込みニューラルネットワークのために開発された、よく確立された敵攻撃のクラスである。
最近では、これらの攻撃はグラフニューラルネットワーク(GNN)をターゲットに拡張され、重大な脆弱性が明らかになった。
この新たな開発は、GNNをBFAから守るための最良の戦略に関する疑問を自然に提起する。
クリティカルフィールドにおけるGNNの応用を考えると、防御機構はネットワーク性能を維持するだけでなく、ネットワークを攻撃前の状態に確実に復元する必要がある。
ネットワークを攻撃前の状態に戻すことは、ネットワークの品質を保証するために、テストデータに対するコストのかかる評価を不要にする。
我々は、コンピュータビジョン領域からGNNに適応したBFAに対する既存のハニーポットおよびハッシュベースの防御の有効性に関する最初の洞察を提供し、これらのアプローチの欠点を特徴づける。
これらの制限を克服するために、Crossfireを提案する。これは、重みを生かし、ハッシングとハニーポットを組み合わせるハイブリッドアプローチで、ビットレベルの分布外重み要素の補正を行い、ネットワークの整合性を回復する。
Crossfireはリトレーニングフリーで、ラベル付きデータを必要としない。
6つのベンチマークデータセットで平均2,160以上の実験を行ったCrossfireは、BFAによって攻撃されたGNNを前攻撃状態に再構築する競合他社よりも21.8%高い確率を提供する。
これらの実験は、様々な攻撃から最大55ビットのフリップをカバーしている。
さらに、リペア後の予測品質を10.85%向上させる。
計算とストレージのオーバーヘッドは、最も単純なGNNでさえも本質的に複雑であるのに対して無視できる。
関連論文リスト
- Backdoor Attack on Vertical Federated Graph Neural Network Learning [6.540725813096829]
Federated Graph Neural Network (FedGNN)は、フェデレーション学習(FL)とグラフニューラルネットワーク(GNN)を組み合わせた、プライバシ保護機械学習技術である。
垂直フェデレーショングラフニューラルネットワーク(VFGNN)はFedGNNの重要なブランチであり、データ機能とラベルが参加者間で分散される。
分散データやラベルへのアクセスや変更が難しいため、バックドアアタックに対するVFGNNの脆弱性はほとんど解明されていない。
VFGNNにおけるバックドア攻撃の最初の方法であるBVGを提案する。ラベルへのアクセスや変更なしに、BVGはマルチホップトリガを使用し、4つしか必要としない。
論文 参考訳(メタデータ) (2024-10-15T05:26:20Z) - A Novel Self-Attention-Enabled Weighted Ensemble-Based Convolutional Neural Network Framework for Distributed Denial of Service Attack Classification [0.0]
本研究は、DDoS攻撃検出のための新しいアプローチを提案する。
提案手法は精度98.71%、F1スコア98.66%、リコール98.63%、精度98.69%を達成する。
論文 参考訳(メタデータ) (2024-09-01T18:58:33Z) - Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Cost Aware Untargeted Poisoning Attack against Graph Neural Networks, [5.660584039688214]
本稿では,攻撃予算の配分を改善するため,コスト・アウェア・ポジショニング・アタック(CA-アタック)と呼ばれる新たなアタック・ロス・フレームワークを提案する。
実験の結果,提案したCA攻撃は既存の攻撃戦略を大幅に強化することが示された。
論文 参考訳(メタデータ) (2023-12-12T10:54:02Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - SPIN: Simulated Poisoning and Inversion Network for Federated
Learning-Based 6G Vehicular Networks [9.494669823390648]
車両ネットワークは常にデータプライバシー保護の懸念に直面してきた。
この手法は、モデル逆転とモデル中毒攻撃に対して非常に脆弱である。
本研究では,データ再構成に最適化手法を応用したシミュレート中毒・逆変換ネットワーク(SPIN)を提案する。
論文 参考訳(メタデータ) (2022-11-21T10:07:13Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Generating Adversarial Examples with Graph Neural Networks [26.74003742013481]
両手法の強みを生かしたグラフニューラルネットワーク(GNN)に基づく新たな攻撃を提案する。
PGDアタック,MI-FGSM,Carini,Wagnerアタックなど,最先端の敵攻撃に勝っていることを示す。
我々は、敵攻撃のより実証的な比較を可能にするために特別に設計された、新しい挑戦的なデータセットを提供する。
論文 参考訳(メタデータ) (2021-05-30T22:46:41Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。