論文の概要: Fault Injection on Embedded Neural Networks: Impact of a Single
Instruction Skip
- arxiv url: http://arxiv.org/abs/2308.16665v1
- Date: Thu, 31 Aug 2023 12:14:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 14:33:09.264892
- Title: Fault Injection on Embedded Neural Networks: Impact of a Single
Instruction Skip
- Title(参考訳): 組込みニューラルネットワークにおける欠陥注入 : 単一命令スキップの影響
- Authors: Clement Gaine, Pierre-Alain Moellic, Olivier Potin, Jean-Max Dutertre
- Abstract要約: 我々は、Cortex M432ビットマイクロコントローラプラットフォーム上に埋め込まれたニューラルネットワークモデルに適用した、2つの障害注入手段である電磁およびレーザー注入の使用に関する最初の実験を行った。
我々のゴールは、命令スキップである特定の障害モデルの影響をシミュレートし、実験的に示すことである。
我々は、典型的な畳み込みニューラルネットワークモデルの推論プログラムにおけるいくつかのステップをターゲットにして、整合性の脅威を明らかにする。
- 参考スコア(独自算出の注目度): 1.3654846342364308
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the large-scale integration and use of neural network models, especially
in critical embedded systems, their security assessment to guarantee their
reliability is becoming an urgent need. More particularly, models deployed in
embedded platforms, such as 32-bit microcontrollers, are physically accessible
by adversaries and therefore vulnerable to hardware disturbances. We present
the first set of experiments on the use of two fault injection means,
electromagnetic and laser injections, applied on neural networks models
embedded on a Cortex M4 32-bit microcontroller platform. Contrary to most of
state-of-the-art works dedicated to the alteration of the internal parameters
or input values, our goal is to simulate and experimentally demonstrate the
impact of a specific fault model that is instruction skip. For that purpose, we
assessed several modification attacks on the control flow of a neural network
inference. We reveal integrity threats by targeting several steps in the
inference program of typical convolutional neural network models, which may be
exploited by an attacker to alter the predictions of the target models with
different adversarial goals.
- Abstract(参考訳): 大規模統合とニューラルネットワークモデルの利用、特に重要な組み込みシステムでは、信頼性を保証するためのセキュリティアセスメントが緊急の要求となっている。
特に、32ビットマイクロコントローラなどの組み込みプラットフォームにデプロイされたモデルは、敵によって物理的にアクセス可能であり、そのためハードウェア障害に弱い。
本稿では,cortex m4 32ビットマイクロコントローラプラットフォームに埋め込まれたニューラルネットワークモデルに対して,電磁およびレーザーによる2つの故障注入手段を用いた最初の実験を行う。
内部パラメータや入力値の変更を専門とする最先端の作業の多くとは対照的に、私たちの目標は、命令スキップ中の特定の障害モデルの影響をシミュレートし、実験的に示すことです。
そこで我々は,ニューラルネットワークの制御フローに対するいくつかの修正攻撃を評価した。
我々は,一般的な畳み込みニューラルネットワークモデルの推論プログラムにおいて,目標モデルの予測を異なる目標で変更するために攻撃者が悪用する可能性のあるいくつかのステップを目標として,整合性の脅威を明らかにする。
関連論文リスト
- MRFI: An Open Source Multi-Resolution Fault Injection Framework for
Neural Network Processing [8.871260896931211]
MRFIはディープニューラルネットワークのための高解像度フォールトインジェクションツールである。
異なる視点から広範な障害解析機能を統合する。
PyTorchの主要なニューラルネットワークコンピューティングフレームワークを変更していない。
論文 参考訳(メタデータ) (2023-06-20T06:46:54Z) - Evaluation of Parameter-based Attacks against Embedded Neural Networks
with Laser Injection [1.2499537119440245]
この研究は、レーザ断層注入を用いた32ビットのCortex-Mマイクロコントローラ上で、ビットフリップ攻撃(BFA)の成功例を実際に報告した。
非現実的なブルートフォース戦略を避けるために、レーザ断層モデルを考慮したパラメータから最も敏感なビット群を選択するのにシミュレーションがどのように役立つかを示す。
論文 参考訳(メタデータ) (2023-04-25T14:48:58Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Adversarial Robustness Assessment of NeuroEvolution Approaches [1.237556184089774]
CIFAR-10画像分類タスクにおける2つのNeuroEvolutionアプローチにより得られたモデルのロバスト性を評価する。
以上の結果から,進化したモデルが反復的手法で攻撃されると,その精度は通常0に低下するか0に近づきます。
これらの技法のいくつかは、元の入力に付加された摂動を悪化させ、頑丈さを損なう可能性がある。
論文 参考訳(メタデータ) (2022-07-12T10:40:19Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - A Review of Confidentiality Threats Against Embedded Neural Network
Models [0.0]
本稿では,組み込みディープニューラルネットワーク(DNN)モデルの機密性を標的とした攻撃について述べる。
私たちは、Side-Channel Analysis(SCA)がモデルの機密性を侵害できる比較的未踏のバイアスであるという事実を強調しています。
論文 参考訳(メタデータ) (2021-05-04T10:27:20Z) - Leaky Nets: Recovering Embedded Neural Network Models and Inputs through
Simple Power and Timing Side-Channels -- Attacks and Defenses [4.014351341279427]
ニューラルネットワーク実装のサイドチャネル脆弱性について,パラメータを復元して検討する。
我々は、異なる精度のネットワーク上で人気のあるマイクロコントローラプラットフォームに対する攻撃を実証する。
タイミングに基づく攻撃に対する対策を実施し、そのオーバーヘッドを分析する。
論文 参考訳(メタデータ) (2021-03-26T21:28:13Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。