論文の概要: The Weight of a Bit: EMFI Sensitivity Analysis of Embedded Deep Learning Models
- arxiv url: http://arxiv.org/abs/2602.16309v1
- Date: Wed, 18 Feb 2026 09:40:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.56438
- Title: The Weight of a Bit: EMFI Sensitivity Analysis of Embedded Deep Learning Models
- Title(参考訳): ビットの重み:組み込みディープラーニングモデルのEMFI感度解析
- Authors: Jakub Breier, Štefan Kučerák, Xiaolu Hou,
- Abstract要約: 組込みニューラルネットワークモデルにおいて,4つの異なる数表現がEMFI攻撃の成功にどのように影響するかを検討する。
我々は,組込みメモリチップ上に,ResNet-18,ResNet-34,ResNet-50,VGG-11の4つの共通画像分類器を配置し,低コストなEMFIプラットフォームを用いて故障を発生させた。
その結果,浮動小数点表現は単一障害注入後の精度(Top-1とTop-5)がほぼ完全に低下しているのに対し,整数表現は全体として抵抗性が高いことがわかった。
- 参考スコア(独自算出の注目度): 3.2913641623634913
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fault injection attacks on embedded neural network models have been shown as a potent threat. Numerous works studied resilience of models from various points of view. As of now, there is no comprehensive study that would evaluate the influence of number representations used for model parameters against electromagnetic fault injection (EMFI) attacks. In this paper, we investigate how four different number representations influence the success of an EMFI attack on embedded neural network models. We chose two common floating-point representations (32-bit, and 16-bit), and two integer representations (8-bit, and 4-bit). We deployed four common image classifiers, ResNet-18, ResNet-34, ResNet-50, and VGG-11, on an embedded memory chip, and utilized a low-cost EMFI platform to trigger faults. Our results show that while floating-point representations exhibit almost a complete degradation in accuracy (Top-1 and Top-5) after a single fault injection, integer representations offer better resistance overall. Especially, when considering the the 8-bit representation on a relatively large network (VGG-11), the Top-1 accuracies stay at around 70% and the Top-5 at around 90%.
- Abstract(参考訳): 組み込みニューラルネットワークモデルに対するフォールトインジェクション攻撃は、潜在的脅威として示されている。
多くの研究が様々な観点からモデルのレジリエンスを研究した。
現在、電磁欠陥注入(EMFI)攻撃に対するモデルパラメータの数値表現の影響を総合的に評価する研究は行われていない。
本稿では,組込みニューラルネットワークモデルにおいて,4つの異なる数表現がEMFI攻撃の成功にどのように影響するかを検討する。
我々は2つの共通浮動小数点表現(32ビット、16ビット)と2つの整数表現(8ビット、4ビット)を選択した。
我々は,組込みメモリチップ上に,ResNet-18,ResNet-34,ResNet-50,VGG-11の4つの共通画像分類器を配置し,低コストなEMFIプラットフォームを用いて故障を発生させた。
その結果,浮動小数点表現は単一障害注入後の精度(Top-1とTop-5)がほぼ完全に低下しているのに対し,整数表現は全体として抵抗性が高いことがわかった。
特に、比較的大きなネットワーク(VGG-11)上の8ビットの表現を考えると、Top-1の精度は70%、Top-5は90%程度である。
関連論文リスト
- Understanding vision transformer robustness through the lens of out-of-distribution detection [59.72757235382676]
量子化はメモリと推論コストを削減し、性能損失のリスクを負う。
本稿では, 量子化小型可変ビジョントランス (DeiT, DeiT3, ViT) の共通アウト・オブ・ディストリビューション (OOD) データセットにおける挙動について検討する。
論文 参考訳(メタデータ) (2026-02-01T22:00:59Z) - Domain-Robust Marine Plastic Detection Using Vision Models [0.0]
本研究では、ドメイン間の堅牢性、畳み込みニューラルネットワークのトレーニング、ビジョントランスフォーマーのモデルをベンチマークする。
CLIP ViT-L14とGoogleのGemini 2.0 Flashの2つのゼロショットモデルが評価された。
結果は、軽量のMobileNetV2が、より大きなモデルを上回る最強のクロスドメインパフォーマンス(F1 0.97)を提供することを示している。
論文 参考訳(メタデータ) (2025-09-29T17:15:07Z) - Harden Deep Neural Networks Against Fault Injections Through Weight Scaling [0.0]
そこで本研究では,DNNの重み付けを一定値に乗じてハード化する手法を提案する。
本手法は,ビットフリップからの誤差が付加雑音に類似した特性を持つことを示す。
論文 参考訳(メタデータ) (2024-11-28T08:47:23Z) - FP8 Formats for Deep Learning [49.54015320992368]
2つのエンコーディングからなる8ビット浮動小数点(FP8)バイナリインターチェンジフォーマットを提案する。
E4M3のダイナミックレンジは無限大を表現せず、NaNに対して1つのマティーサビットパターンしか持たないことによって拡張される。
16ビットのトレーニングセッションで達成した結果の質を効果的にマッチングし,FP8フォーマットが様々な画像および言語タスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-09-12T17:39:55Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - All-You-Can-Fit 8-Bit Flexible Floating-Point Format for Accurate and
Memory-Efficient Inference of Deep Neural Networks [2.294014185517203]
本稿では,非常にフレキシブルな8ビット浮動小数点 (FFP8) フォーマットを提案する。
複数の代表的な画像分類モデルに対して、0.1%sim 0.3%の極めて低い精度の損失を達成している。
古典的な浮動小数点処理ユニットをFFP8準拠のユニットに変えるのは簡単で、余分なハードウェアコストは小さい。
論文 参考訳(メタデータ) (2021-04-15T09:37:23Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z) - EMPIR: Ensembles of Mixed Precision Deep Networks for Increased
Robustness against Adversarial Attacks [18.241639570479563]
ディープニューラルネットワーク(DNN)は、小さな入力摂動が破滅的な誤分類を生じさせる敵の攻撃に対して脆弱である。
敵攻撃に対するロバスト性を高めるための新しいアプローチとして,異なる数値精度を持つ量子化DNNモデルのアンサンブルであるEMPIRを提案する。
EMPIRは、MNIST、CIFAR-10、ImageNetデータセットでトレーニングされたDNNモデルに対して、平均対向精度を42.6%、15.2%、10.5%向上させることを示す。
論文 参考訳(メタデータ) (2020-04-21T17:17:09Z) - Cryptanalytic Extraction of Neural Network Models [56.738871473622865]
遠隔モデルのパラメータを浮動小数点精度まで効率的に盗むことができる差動攻撃を導入する。
我々の攻撃は、ReLUニューラルネットワークが一括線形関数であるという事実に依存している。
220倍の正確さと100倍のクエリを必要とするモデルを抽出する。
論文 参考訳(メタデータ) (2020-03-10T17:57:14Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z) - Pre-defined Sparsity for Low-Complexity Convolutional Neural Networks [9.409651543514615]
この研究は、フィルタ内で定期的に繰り返されるサポートセットを持つ、事前に定義されたスパース2Dカーネルを持つ畳み込みレイヤを導入している。
周期的なスパースカーネルの効率的な保存のため、パラメータの節約はエネルギー効率を大幅に向上させることができる。
論文 参考訳(メタデータ) (2020-01-29T07:10:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。