論文の概要: An Overview of Laser Injection against Embedded Neural Network Models
- arxiv url: http://arxiv.org/abs/2105.01403v1
- Date: Tue, 4 May 2021 10:32:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 12:50:14.902392
- Title: An Overview of Laser Injection against Embedded Neural Network Models
- Title(参考訳): 組み込みニューラルネットワークモデルに対するレーザー注入の概要
- Authors: Mathieu Dumont, Pierre-Alain Moellic, Raphael Viera, Jean-Max
Dutertre, R\'emi Bernhard
- Abstract要約: フォールトインジェクション分析(FIA)は、攻撃ベクトルの広いスペクトルで非常に強力であることが知られています。
本稿では,最先端機器によるレーザー注入と,Adversarial Machine Learningの理論的証拠を組み合わせることで,ディープラーニング推論の完全性に対する脅威を浮き彫りにする方法について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For many IoT domains, Machine Learning and more particularly Deep Learning
brings very efficient solutions to handle complex data and perform challenging
and mostly critical tasks. However, the deployment of models in a large variety
of devices faces several obstacles related to trust and security. The latest is
particularly critical since the demonstrations of severe flaws impacting the
integrity, confidentiality and accessibility of neural network models. However,
the attack surface of such embedded systems cannot be reduced to abstract flaws
but must encompass the physical threats related to the implementation of these
models within hardware platforms (e.g., 32-bit microcontrollers). Among
physical attacks, Fault Injection Analysis (FIA) are known to be very powerful
with a large spectrum of attack vectors. Most importantly, highly focused FIA
techniques such as laser beam injection enable very accurate evaluation of the
vulnerabilities as well as the robustness of embedded systems. Here, we propose
to discuss how laser injection with state-of-the-art equipment, combined with
theoretical evidences from Adversarial Machine Learning, highlights worrying
threats against the integrity of deep learning inference and claims that join
efforts from the theoretical AI and Physical Security communities are a urgent
need.
- Abstract(参考訳): 多くのIoTドメインにおいて、マシンラーニング、特にDeep Learningは、複雑なデータを処理するための非常に効率的なソリューションを提供する。
しかし、さまざまなデバイスへのモデルのデプロイは、信頼とセキュリティに関するいくつかの障害に直面しています。
ニューラルネットワークモデルの完全性、機密性、アクセシビリティに影響を与える重大な欠陥のデモンストレーションは、特に重要なものだ。
しかし、そのような組み込みシステムの攻撃面は抽象的な欠陥に還元することはできないが、ハードウェアプラットフォーム(例えば32ビットマイクロコントローラ)におけるこれらのモデルの実装に関連する物理的脅威を包含する必要がある。
物理的攻撃の中で、障害注入分析(FIA)は攻撃ベクトルの広い範囲で非常に強力であることが知られている。
最も重要なことは、レーザービーム注入のような高度に集中したFIA技術は、組み込みシステムの堅牢性だけでなく、脆弱性の極めて正確な評価を可能にすることである。
本稿では、最先端の機器によるレーザー注入と、Adversarial Machine Learningの理論的証拠を組み合わせることで、ディープラーニング推論の完全性に対する脅威を浮き彫りにし、理論AIと物理セキュリティのコミュニティからの協力が急務であると主張する。
関連論文リスト
- Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [70.93622520400385]
本稿では,VLAに基づくロボットシステムのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する,標的のない位置認識型攻撃目標を提案する。
また、カメラの視野内に小さなカラフルなパッチを配置し、デジタル環境と物理環境の両方で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Fault Injection on Embedded Neural Networks: Impact of a Single
Instruction Skip [1.3654846342364308]
我々は、Cortex M432ビットマイクロコントローラプラットフォーム上に埋め込まれたニューラルネットワークモデルに適用した、2つの障害注入手段である電磁およびレーザー注入の使用に関する最初の実験を行った。
我々のゴールは、命令スキップである特定の障害モデルの影響をシミュレートし、実験的に示すことである。
我々は、典型的な畳み込みニューラルネットワークモデルの推論プログラムにおけるいくつかのステップをターゲットにして、整合性の脅威を明らかにする。
論文 参考訳(メタデータ) (2023-08-31T12:14:37Z) - Evaluation of Parameter-based Attacks against Embedded Neural Networks
with Laser Injection [1.2499537119440245]
この研究は、レーザ断層注入を用いた32ビットのCortex-Mマイクロコントローラ上で、ビットフリップ攻撃(BFA)の成功例を実際に報告した。
非現実的なブルートフォース戦略を避けるために、レーザ断層モデルを考慮したパラメータから最も敏感なビット群を選択するのにシミュレーションがどのように役立つかを示す。
論文 参考訳(メタデータ) (2023-04-25T14:48:58Z) - Building Compact and Robust Deep Neural Networks with Toeplitz Matrices [93.05076144491146]
この論文は、コンパクトで、訓練が容易で、信頼性があり、敵の例に対して堅牢なニューラルネットワークを訓練する問題に焦点を当てている。
Toeplitzファミリーの構造化行列の特性を利用して、コンパクトでセキュアなニューラルネットワークを構築する。
論文 参考訳(メタデータ) (2021-09-02T13:58:12Z) - A Review of Confidentiality Threats Against Embedded Neural Network
Models [0.0]
本稿では,組み込みディープニューラルネットワーク(DNN)モデルの機密性を標的とした攻撃について述べる。
私たちは、Side-Channel Analysis(SCA)がモデルの機密性を侵害できる比較的未踏のバイアスであるという事実を強調しています。
論文 参考訳(メタデータ) (2021-05-04T10:27:20Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Artificial Neural Networks and Fault Injection Attacks [7.601937548486356]
この章は、障害注入攻撃に直面した人工知能(AI)とニューラルネットワーク(NN)アクセラレータのセキュリティアセスメントに関するものだ。
これらのプラットフォーム上の資産について論じ、暗号システムの分野でよく研究されているものと比較する。
論文 参考訳(メタデータ) (2020-08-17T03:29:57Z) - Security and Machine Learning in the Real World [33.40597438876848]
私たちは、大規模にデプロイされた機械学習ソフトウェア製品のセキュリティを評価し、システムのセキュリティビューを含む会話を広げるために、私たちの経験に基づいています。
本稿では,機械学習モジュールをデプロイする実践者がシステムを保護するために使用できる,短期的な緩和提案のリストを提案する。
論文 参考訳(メタデータ) (2020-07-13T16:57:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。