論文の概要: Characterizing Soft-Error Resiliency in Arm's Ethos-U55 Embedded Machine Learning Accelerator
- arxiv url: http://arxiv.org/abs/2404.09317v1
- Date: Sun, 14 Apr 2024 18:16:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 14:28:37.590134
- Title: Characterizing Soft-Error Resiliency in Arm's Ethos-U55 Embedded Machine Learning Accelerator
- Title(参考訳): Arm's Ethos-U55 Embedded Machine Learning Acceleratorにおけるソフトエラーレジリエンスの特徴
- Authors: Abhishek Tyagi, Reiley Jeyapaul, Chuteng Zhu, Paul Whatmough, Yuhao Zhu,
- Abstract要約: 我々は、組み込みおよびIoTアプリケーションで利用される重要な産業規模のNPUであるArmのEthos-U55の信頼性調査を示す。
Ethos-U55 を Automotive Safety Integrity Level D (ASIL-D) レジリエンス標準に対して特徴付けるため,大規模な RTL レベルの障害注入を行う。
- 参考スコア(独自算出の注目度): 3.8736624857062267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Neural Processing Units (NPU) or accelerators are increasingly deployed in a variety of applications including safety critical applications such as autonomous vehicle, and medical imaging, it is critical to understand the fault-tolerance nature of the NPUs. We present a reliability study of Arm's Ethos-U55, an important industrial-scale NPU being utilised in embedded and IoT applications. We perform large scale RTL-level fault injections to characterize Ethos-U55 against the Automotive Safety Integrity Level D (ASIL-D) resiliency standard commonly used for safety-critical applications such as autonomous vehicles. We show that, under soft errors, all four configurations of the NPU fall short of the required level of resiliency for a variety of neural networks running on the NPU. We show that it is possible to meet the ASIL-D level resiliency without resorting to conventional strategies like Dual Core Lock Step (DCLS) that has an area overhead of 100%. We achieve so through selective protection, where hardware structures are selectively protected (e.g., duplicated, hardened) based on their sensitivity to soft errors and their silicon areas. To identify the optimal configuration that minimizes the area overhead while meeting the ASIL-D standard, the main challenge is the large search space associated with the time-consuming RTL simulation. To address this challenge, we present a statistical analysis tool that is validated against Arm silicon and that allows us to quickly navigate hundreds of billions of fault sites without exhaustive RTL fault injections. We show that by carefully duplicating a small fraction of the functional blocks and hardening the Flops in other blocks meets the ASIL-D safety standard while introducing an area overhead of only 38%.
- Abstract(参考訳): ニューラル・プロセッシング・ユニット(NPU)やアクセラレーターは、自律走行車や医療画像などの安全クリティカルなアプリケーションなど、様々な用途に展開されているため、NPUのフォールトトレランスの性質を理解することが重要である。
我々は、組み込みおよびIoTアプリケーションで利用される重要な産業規模のNPUであるArmのEthos-U55の信頼性調査を示す。
自動運転車などの安全クリティカルなアプリケーションに一般的に使用される自動車安全統一レベルD (ASIL-D) に対するEthos-U55を特徴付けるため,大規模なRTLレベルの障害注入を実施している。
ソフトエラーの下では、NPU上で動作するさまざまなニューラルネットワークにおいて、NPUの4つの構成はすべて、必要なレベルのレジリエンスに欠けることを示す。
領域のオーバーヘッドが100%であるDual Core Lock Step(DCLS)のような従来の戦略を使わずにASIL-Dレベルのレジリエンスを満たすことができることを示す。
ハードウェア構造を選択的に保護し(例えば、複製、硬化)、ソフトエラーやシリコン領域に対する感度に基づいて、ハードウェア構造を選択的に保護する。
ASIL-D標準を満たしている場合の領域オーバーヘッドを最小限に抑える最適構成を特定するためには、時間を要するRTLシミュレーションに付随する巨大な検索空間が大きな課題である。
この課題に対処するために、Armシリコンに対して検証された統計解析ツールを提案する。
機能ブロックのごく一部を慎重に複製し、他のブロックでFlopsを硬化させることで、ASIL-D安全基準に適合し、領域オーバーヘッドはわずか38%である。
関連論文リスト
- Training on the Fly: On-device Self-supervised Learning aboard Nano-drones within 20 mW [52.280742520586756]
ナノドローンのような小さな機械学習(TinyML)を利用した小型サイバー物理システム(CPS)は、ますます魅力的な技術になりつつある。
単純な電子回路はこれらのCPSを安価にすることができるが、計算、メモリ、センサーの資源を著しく制限する。
本稿では,ナノドロンの限られた超低消費電力資源にのみ依存する,オンデバイスファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-08-06T13:11:36Z) - Real-time Threat Detection Strategies for Resource-constrained Devices [1.4815508281465273]
本稿では,ルータ内のDNSトンネリング攻撃を効果的に処理するエンド・ツー・エンド・プロセスを提案する。
我々は、MLモデルをトレーニングするためにステートレスな機能を利用することと、ネットワーク構成から独立して選択した機能を利用することで、非常に正確な結果が得られることを実証した。
さまざまな環境にまたがる組み込みデバイスに最適化されたこの慎重に構築されたモデルのデプロイにより、最小のレイテンシでDNSチューニングされた攻撃検出が可能になった。
論文 参考訳(メタデータ) (2024-03-22T10:02:54Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - Fed-LSAE: Thwarting Poisoning Attacks against Federated Cyber Threat Detection System via Autoencoder-based Latent Space Inspection [0.0]
サイバーセキュリティでは、センシティブなデータと文脈情報と高品質なラベル付けが重要な役割を果たす。
本稿では,潜在空間表現を利用したフェデレーション学習のための新しい頑健なアグリゲーション手法であるFed-LSAEについて検討する。
CIC-ToN-IoTおよびN-Ba IoTデータセットの実験結果から,最先端の毒殺攻撃に対する防御機構の実現可能性が確認された。
論文 参考訳(メタデータ) (2023-09-20T04:14:48Z) - Special Session: Approximation and Fault Resiliency of DNN Accelerators [0.9126382223122612]
本稿では,Deep Neural Networkアクセラレータの近似とフォールトレジリエンスについて検討する。
本稿では,DNNに障害注入を行わずにハードウェアのエラーをエミュレートするために近似(AxC)演算回路を提案する。
また,ネットワーク上での断層伝播とマスキングによる耐故障性の微粒化解析も提案する。
論文 参考訳(メタデータ) (2023-05-31T19:27:45Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z) - Scalable Synthesis of Verified Controllers in Deep Reinforcement
Learning [0.0]
高品質の安全シールドを合成できる自動検証パイプラインを提案します。
私たちの重要な洞察は、事前に計算された安全シールドを使用して神経コントローラのトレーニングを制限し、神経コントローラから安全検証を分離することを含みます。
実測的な高次元深部RLベンチマークによる実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-04-20T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。