論文の概要: Impactful Bit-Flip Search on Full-precision Models
- arxiv url: http://arxiv.org/abs/2411.08133v2
- Date: Thu, 14 Nov 2024 21:48:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 12:20:03.165032
- Title: Impactful Bit-Flip Search on Full-precision Models
- Title(参考訳): 完全精度モデルにおける衝撃的ビットフリップ探索
- Authors: Nadav Benedek, Matan Levy, Mahmood Sharif,
- Abstract要約: Impactful Bit-Flip Search (IBS) は、完全精度ネットワークにおけるクリティカルビットのピンポイントとフリップを効率的に行う新しい手法である。
本稿では,フロート値を元の分布内に保持する手法として,モデルのパラメータを戦略的に修正するウェイト・ステース手法を提案する。
- 参考スコア(独自算出の注目度): 3.4156622779256995
- License:
- Abstract: Neural networks have shown remarkable performance in various tasks, yet they remain susceptible to subtle changes in their input or model parameters. One particularly impactful vulnerability arises through the Bit-Flip Attack (BFA), where flipping a small number of critical bits in a model's parameters can severely degrade its performance. A common technique for inducing bit flips in DRAM is the Row-Hammer attack, which exploits frequent uncached memory accesses to alter data. Identifying susceptible bits can be achieved through exhaustive search or progressive layer-by-layer analysis, especially in quantized networks. In this work, we introduce Impactful Bit-Flip Search (IBS), a novel method for efficiently pinpointing and flipping critical bits in full-precision networks. Additionally, we propose a Weight-Stealth technique that strategically modifies the model's parameters in a way that maintains the float values within the original distribution, thereby bypassing simple range checks often used in tamper detection.
- Abstract(参考訳): ニューラルネットワークは様々なタスクにおいて顕著な性能を示してきたが、入力パラメータやモデルパラメータの微妙な変化の影響を受けやすいままである。
特に影響のある脆弱性の1つは、ビットフリップ攻撃(BFA)によって発生し、モデルのパラメータに少数の臨界ビットを反転させることで、その性能を著しく低下させる。
DRAMでビットフリップを誘導する一般的なテクニックはRow-Hammer攻撃である。
感受性ビットの同定は、特に量子化されたネットワークにおいて、徹底的な探索またはプログレッシブ・レイヤ・バイ・レイヤ分析によって達成できる。
本研究では,完全精度ネットワークにおいて重要なビットを効率よくピンポイントし,フリップする新しい手法であるImpactful Bit-Flip Search(IBS)を紹介する。
さらに,従来の分布内のフロート値を維持する方法でモデルパラメータを戦略的に修正し,タンパー検出によく使用される単純な範囲チェックをバイパスするウェイト・ステース手法を提案する。
関連論文リスト
- Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - One-bit Flip is All You Need: When Bit-flip Attack Meets Model Training [54.622474306336635]
メモリフォールトインジェクション技術を利用したビットフリップ攻撃(BFA)と呼ばれる新たな重み修正攻撃が提案された。
本稿では,高リスクモデルを構築するための訓練段階に敵が関与する,訓練支援ビットフリップ攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-12T09:34:43Z) - Evaluation of Parameter-based Attacks against Embedded Neural Networks
with Laser Injection [1.2499537119440245]
この研究は、レーザ断層注入を用いた32ビットのCortex-Mマイクロコントローラ上で、ビットフリップ攻撃(BFA)の成功例を実際に報告した。
非現実的なブルートフォース戦略を避けるために、レーザ断層モデルを考慮したパラメータから最も敏感なビット群を選択するのにシミュレーションがどのように役立つかを示す。
論文 参考訳(メタデータ) (2023-04-25T14:48:58Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Leaky Nets: Recovering Embedded Neural Network Models and Inputs through
Simple Power and Timing Side-Channels -- Attacks and Defenses [4.014351341279427]
ニューラルネットワーク実装のサイドチャネル脆弱性について,パラメータを復元して検討する。
我々は、異なる精度のネットワーク上で人気のあるマイクロコントローラプラットフォームに対する攻撃を実証する。
タイミングに基づく攻撃に対する対策を実施し、そのオーバーヘッドを分析する。
論文 参考訳(メタデータ) (2021-03-26T21:28:13Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Improving Video Instance Segmentation by Light-weight Temporal
Uncertainty Estimates [11.580916951856256]
本稿では,インスタンスセグメンテーションネットワークの不確かさをモデル化するための時間動的手法を提案する。
本稿では,偽陽性の検出と予測品質の推定に本手法を適用した。
提案手法は、容易に訓練されたニューラルネットワークとビデオシーケンス入力のみを必要とする。
論文 参考訳(メタデータ) (2020-12-14T13:39:05Z) - On Robustness and Transferability of Convolutional Neural Networks [147.71743081671508]
現代の深層畳み込みネットワーク(CNN)は、分散シフトの下で一般化しないとしてしばしば批判される。
現代画像分類CNNにおける分布外と転送性能の相互作用を初めて検討した。
トレーニングセットとモデルサイズを増大させることで、分散シフトロバスト性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-16T18:39:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。