論文の概要: Bit-Flip Fault Attack: Crushing Graph Neural Networks via Gradual Bit Search
- arxiv url: http://arxiv.org/abs/2507.05531v1
- Date: Mon, 07 Jul 2025 23:06:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.443667
- Title: Bit-Flip Fault Attack: Crushing Graph Neural Networks via Gradual Bit Search
- Title(参考訳): Bit-Flip障害攻撃:グラジアルビットサーチによるグラフニューラルネットワークの破壊
- Authors: Sanaz Kazemi Abharian, Sai Manoj Pudukotai Dinakarrao,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データの強力な機械学習手法として登場した。
本稿では,ハードウェアベースの障害攻撃に対するGNNモデルの脆弱性について検討する。
階層型ビットフリップ障害攻撃(GBFA)を提案する。
- 参考スコア(独自算出の注目度): 0.4943822978887544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as a powerful machine learning method for graph-structured data. A plethora of hardware accelerators has been introduced to meet the performance demands of GNNs in real-world applications. However, security challenges of hardware-based attacks have been generally overlooked. In this paper, we investigate the vulnerability of GNN models to hardware-based fault attack, wherein an attacker attempts to misclassify output by modifying trained weight parameters through fault injection in a memory device. Thus, we propose Gradual Bit-Flip Fault Attack (GBFA), a layer-aware bit-flip fault attack, selecting a vulnerable bit in each selected weight gradually to compromise the GNN's performance by flipping a minimal number of bits. To achieve this, GBFA operates in two steps. First, a Markov model is created to predict the execution sequence of layers based on features extracted from memory access patterns, enabling the launch of the attack within a specific layer. Subsequently, GBFA identifies vulnerable bits within the selected weights using gradient ranking through an in-layer search. We evaluate the effectiveness of the proposed GBFA attack on various GNN models for node classification tasks using the Cora and PubMed datasets. Our findings show that GBFA significantly degrades prediction accuracy, and the variation in its impact across different layers highlights the importance of adopting a layer-aware attack strategy in GNNs. For example, GBFA degrades GraphSAGE's prediction accuracy by 17% on the Cora dataset with only a single bit flip in the last layer.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データの強力な機械学習手法として登場した。
現実のアプリケーションにおけるGNNのパフォーマンス要求を満たすため、多数のハードウェアアクセラレータが導入された。
しかし、ハードウェアベースの攻撃のセキュリティ上の課題は概して見過ごされている。
本稿では,GNNモデルのハードウェアベース障害攻撃に対する脆弱性について検討し,攻撃者はメモリ装置の障害注入によってトレーニングされた重みパラメータを変更することで,出力を誤分類しようとする。
そこで本研究では,階層対応ビットフリップ障害攻撃であるGradual Bit-Flip Fault Attack (GBFA)を提案する。
これを実現するため、GBFAは2つのステップで機能する。
まず、メモリアクセスパターンから抽出された機能に基づいてレイヤの実行シーケンスを予測するために、Markovモデルが作成され、特定のレイヤ内でアタックの起動が可能になる。
その後、GBFAは層内探索による勾配ランキングを用いて、選択した重み内の脆弱なビットを識別する。
Cora と PubMed のデータセットを用いて,ノード分類タスクに対する GNN モデルに対するGBFA 攻撃の有効性を評価する。
以上の結果から,GBFAは予測精度を著しく低下させ,異なる層にまたがる影響の変動は,GNNにおいて層認識攻撃戦略を採用することの重要性を浮き彫りにしている。
例えば、GBFAはGraphSAGEの予測精度をCoraデータセットで17%低下させ、最後のレイヤで1ビットフリップするだけでよい。
関連論文リスト
- ObfusBFA: A Holistic Approach to Safeguarding DNNs from Different Types of Bit-Flip Attacks [12.96840649714218]
ビットフリップ攻撃(BFA)はディープニューラルネットワーク(DNN)にとって深刻な脅威である
本稿では,BFAを効果的かつ包括的に緩和するObfusBFAを提案する。
臨界ビットを識別し,難読化操作を挿入する新しいアルゴリズムを設計する。
論文 参考訳(メタデータ) (2025-06-12T14:31:27Z) - Exact Certification of (Graph) Neural Networks Against Label Poisoning [50.87615167799367]
グラフニューラルネットワーク(GNN)におけるラベルフリップの正確な認証手法を提案する。
本稿では,ノード分類タスクにおける広範囲なGNNアーキテクチャの認証に本手法を適用した。
私たちの研究は、ニューラルネットワークによって引き起こされた毒殺攻撃に対する最初の正確な認証を提示します。
論文 参考訳(メタデータ) (2024-11-30T17:05:12Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Momentum Gradient-based Untargeted Attack on Hypergraph Neural Networks [17.723282166737867]
ハイパーグラフニューラルネットワーク(HGNN)は、様々なハイパーグラフ関連タスクにうまく適用されている。
近年の研究では、ディープラーニングモデルは敵の攻撃に弱いことが示されている。
我々は、ノード機能の変更に焦点を当てた、未ターゲット攻撃のための新しいHGNNアタックモデル、MGHGAを設計する。
論文 参考訳(メタデータ) (2023-10-24T09:10:45Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Label-Only Membership Inference Attack against Node-Level Graph Neural
Networks [30.137860266059004]
グラフニューラルネットワーク(GNN)は、メンバーシップ推論攻撃(MIA)に対して脆弱である
本稿では,GNNのフレキシブル予測機構を利用して,ノード分類のためのラベルのみのMIAを提案する。
攻撃手法は,ほとんどのデータセットやGNNモデルに対して,AUC(Area Under the Curve)の精度,精度,面積の約60%を達成している。
論文 参考訳(メタデータ) (2022-07-27T19:46:26Z) - Transferable Graph Backdoor Attack [13.110473828583725]
グラフニューラルネットワーク(GNN)は多くのグラフマイニングタスクで大きな成功を収めています。
GNNは、グラフ構造とノードの特徴の両方において、目立たない摂動に対して脆弱である。
本稿では,TRAP攻撃,Transferable GRAPhバックドア攻撃について述べる。
論文 参考訳(メタデータ) (2022-06-21T06:25:37Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。