論文の概要: ObfusBFA: A Holistic Approach to Safeguarding DNNs from Different Types of Bit-Flip Attacks
- arxiv url: http://arxiv.org/abs/2506.10744v1
- Date: Thu, 12 Jun 2025 14:31:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.779206
- Title: ObfusBFA: A Holistic Approach to Safeguarding DNNs from Different Types of Bit-Flip Attacks
- Title(参考訳): ObfusBFA: 異なるタイプのビットフリップ攻撃からDNNを保護するための全体論的アプローチ
- Authors: Xiaobei Yan, Han Qiu, Tianwei Zhang,
- Abstract要約: ビットフリップ攻撃(BFA)はディープニューラルネットワーク(DNN)にとって深刻な脅威である
本稿では,BFAを効果的かつ包括的に緩和するObfusBFAを提案する。
臨界ビットを識別し,難読化操作を挿入する新しいアルゴリズムを設計する。
- 参考スコア(独自算出の注目度): 12.96840649714218
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bit-flip attacks (BFAs) represent a serious threat to Deep Neural Networks (DNNs), where flipping a small number of bits in the model parameters or binary code can significantly degrade the model accuracy or mislead the model prediction in a desired way. Existing defenses exclusively focus on protecting models for specific attacks and platforms, while lacking effectiveness for other scenarios. We propose ObfusBFA, an efficient and holistic methodology to mitigate BFAs targeting both the high-level model weights and low-level codebase (executables or shared libraries). The key idea of ObfusBFA is to introduce random dummy operations during the model inference, which effectively transforms the delicate attacks into random bit flips, making it much harder for attackers to pinpoint and exploit vulnerable bits. We design novel algorithms to identify critical bits and insert obfuscation operations. We evaluate ObfusBFA against different types of attacks, including the adaptive scenarios where the attacker increases the flip bit budget to attempt to circumvent our defense. The results show that ObfusBFA can consistently preserve the model accuracy across various datasets and DNN architectures while significantly reducing the attack success rates. Additionally, it introduces minimal latency and storage overhead, making it a practical solution for real-world applications.
- Abstract(参考訳): ビットフリップ攻撃(BFA)はDeep Neural Networks(DNN)にとって深刻な脅威であり、モデルパラメータやバイナリコードのビット数が少ないと、モデルの精度が大幅に低下したり、モデル予測を望ましい方法で誤解したりする可能性がある。
既存の防御は特定の攻撃やプラットフォームに対するモデル保護にのみ重点を置いているが、他のシナリオでは有効性に欠ける。
我々は,高レベルのモデル重みと低レベルのコードベース(実行可能あるいは共有ライブラリ)の両方を対象として,BFAを効果的かつ包括的に緩和するObfusBFAを提案する。
ObfusBFAの鍵となる考え方は、モデル推論中にランダムなダミー操作を導入することである。
臨界ビットを識別し,難読化操作を挿入する新しいアルゴリズムを設計する。
我々は,攻撃者が防御を回避しようとするフリップビット予算を増大させる適応シナリオを含む,さまざまな種類の攻撃に対してobfusBFAを評価する。
その結果、ObfusBFAは、さまざまなデータセットやDNNアーキテクチャのモデル精度を一貫して維持できると同時に、攻撃成功率を大幅に低減できることがわかった。
さらに、レイテンシとストレージのオーバーヘッドを最小限に抑え、現実世界のアプリケーションに実用的なソリューションを提供する。
関連論文リスト
- MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - No Query, No Access [50.18709429731724]
被害者のテキストのみを使用して動作する textbfVictim Data-based Adrial Attack (VDBA) を導入する。
被害者モデルへのアクセスを防止するため、公開されている事前トレーニングモデルとクラスタリングメソッドを備えたシャドウデータセットを作成します。
EmotionとSST5データセットの実験によると、VDBAは最先端の手法より優れており、ASRの改善は52.08%である。
論文 参考訳(メタデータ) (2025-05-12T06:19:59Z) - A Semi Black-Box Adversarial Bit-Flip Attack with Limited DNN Model Information [0.0]
本稿では,深層ニューラルネットワーク(DNN)に対する半ブラックボックス逆ビットフリップ攻撃であるB3FAを提案する。
半ブラックボックス設定における複数のDNNモデルに対するB3FAの有効性を示す。
例えば、B3FAはMobileNetV2の精度を69.84%から9%に下げることができる。
論文 参考訳(メタデータ) (2024-12-12T17:04:57Z) - An Interpretable N-gram Perplexity Threat Model for Large Language Model Jailbreaks [87.64278063236847]
本研究では,ジェイルブレイク攻撃の原理的比較のための統一的脅威モデルを提案する。
私たちの脅威モデルは、あるジェイルブレイクがテキストの配布で起こりそうなかどうかをチェックします。
私たちはこの脅威モデルに人気のある攻撃を適応させ、これらの攻撃を同等の足場でベンチマークしました。
論文 参考訳(メタデータ) (2024-10-21T17:27:01Z) - One-bit Flip is All You Need: When Bit-flip Attack Meets Model Training [54.622474306336635]
メモリフォールトインジェクション技術を利用したビットフリップ攻撃(BFA)と呼ばれる新たな重み修正攻撃が提案された。
本稿では,高リスクモデルを構築するための訓練段階に敵が関与する,訓練支援ビットフリップ攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-12T09:34:43Z) - Adversarial Attacks Neutralization via Data Set Randomization [3.655021726150369]
ディープラーニングモデルに対する敵対的な攻撃は、信頼性とセキュリティに深刻な脅威をもたらす。
本稿では,超空間射影に根ざした新しい防御機構を提案する。
提案手法は,敵対的攻撃に対するディープラーニングモデルの堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2023-06-21T10:17:55Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Fabricated Flips: Poisoning Federated Learning without Data [9.060263645085564]
フェデレートラーニング(FL)に対する攻撃は、生成されたモデルの品質を大幅に低下させる。
本稿では、悪意のあるデータを合成し、敵対的モデルを構築するデータフリーな未標的攻撃(DFA)を提案する。
DFAは、最先端の未標的攻撃と同じような、あるいはそれ以上の攻撃成功率を達成する。
論文 参考訳(メタデータ) (2022-02-07T20:38:28Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。