論文の概要: FORTALESA: Fault-Tolerant Reconfigurable Systolic Array for DNN Inference
- arxiv url: http://arxiv.org/abs/2503.04426v1
- Date: Thu, 06 Mar 2025 13:35:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 15:57:42.633642
- Title: FORTALESA: Fault-Tolerant Reconfigurable Systolic Array for DNN Inference
- Title(参考訳): FORTALESA:DNN推論のためのフォールトトレラントな再構成可能なシストリックアレイ
- Authors: Natalia Cherezova, Artur Jutman, Maksim Jenihhin,
- Abstract要約: ミッションクリティカルおよび安全クリティカルなアプリケーションにおけるディープニューラルネットワーク(DNN)は、その信頼性を前面に持ち込む。
この作業では,3つの実行モードと4つの実装オプションを備えた,実行時再構成可能なsystolic配列アーキテクチャを提案する。
提案アーキテクチャは,サイストリックアレイPEのレジスタとMACユニットを過渡的および永久的故障から効率的に保護する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The emergence of Deep Neural Networks (DNNs) in mission- and safety-critical applications brings their reliability to the front. High performance demands of DNNs require the use of specialized hardware accelerators. Systolic array architecture is widely used in DNN accelerators due to its parallelism and regular structure. This work presents a run-time reconfigurable systolic array architecture with three execution modes and four implementation options. All four implementations are evaluated in terms of resource utilization, throughput, and fault tolerance improvement. The proposed architecture is used for reliability enhancement of DNN inference on systolic array through heterogeneous mapping of different network layers to different execution modes. The approach is supported by a novel reliability assessment method based on fault propagation analysis. It is used for the exploration of the appropriate execution mode-layer mapping for DNN inference. The proposed architecture efficiently protects registers and MAC units of systolic array PEs from transient and permanent faults. The reconfigurability feature enables a speedup of up to $3\times$, depending on layer vulnerability. Furthermore, it requires $6\times$ less resources compared to static redundancy and $2.5\times$ less resources compared to the previously proposed solution for transient faults.
- Abstract(参考訳): ミッションクリティカルおよび安全クリティカルなアプリケーションにおけるディープニューラルネットワーク(DNN)の出現は、その信頼性を前面に押し付けている。
DNNの高性能な要求には、特別なハードウェアアクセラレーターを使用する必要がある。
シストリックアレイアーキテクチャは、並列性と規則構造のため、DNNアクセラレーターで広く使われている。
この作業では,3つの実行モードと4つの実装オプションを備えた,実行時再構成可能なsystolic配列アーキテクチャを提案する。
4つの実装はすべて、リソース利用、スループット、耐障害性の改善の観点から評価されている。
提案アーキテクチャは,異なるネットワーク層から異なる実行モードへのヘテロジニアスマッピングを通じて,シストリックアレイ上でのDNN推論の信頼性向上に使用される。
本手法は, 断層伝播解析に基づく新しい信頼性評価手法によって支持される。
DNN推論のための適切な実行モード層マッピングの探索に使用される。
提案アーキテクチャは,サイストリックアレイPEのレジスタとMACユニットを過渡的および永久的故障から効率的に保護する。
再設定可能な機能は、レイヤの脆弱性に応じて最大$3\times$のスピードアップを可能にする。
さらに、静的冗長性と比較して6.6\times$少ないリソースと、以前提案された過渡的障害に対するソリューションに比べて2.5\times$低いリソースが必要です。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - HYDRA: Hybrid Data Multiplexing and Run-time Layer Configurable DNN Accelerator [0.0]
本稿では,FMA(Fused-Multiply-Accumulate)を改良した単一層の実行において,単一のアクティベーション関数を再利用した層多重化手法を提案する。
提案したアーキテクチャは、電力消費と資源利用の改善の90%以上を35.21 TOPSWで達成している。
論文 参考訳(メタデータ) (2024-09-08T05:10:02Z) - SAFFIRA: a Framework for Assessing the Reliability of
Systolic-Array-Based DNN Accelerators [0.4391603054571586]
本稿では,シストリックアレイをベースとしたディープニューラルネットワーク(DNN)アクセラレータに適した,階層型ソフトウェアベースのハードウェア対応フォールトインジェクション戦略を提案する。
論文 参考訳(メタデータ) (2024-03-05T13:17:09Z) - REDS: Resource-Efficient Deep Subnetworks for Dynamic Resource Constraints [2.9209462960232235]
最先端の機械学習パイプラインは、実行時に適応できないリソースに依存しないモデルを生成する。
本稿では,資源効率の高いDeep Subnetworks (REDS) を導入し,変動資源へのモデル適応に取り組む。
本稿では,サブモデルのテストセット精度の観点から,REDSの優れた性能を示す理論的結果と実証的証拠を提供する。
論文 参考訳(メタデータ) (2023-11-22T12:34:51Z) - Detecting train driveshaft damages using accelerometer signals and
Differential Convolutional Neural Networks [67.60224656603823]
本稿では,高度2次元畳み込みニューラルネットワーク(CNN)アーキテクチャに基づく鉄道軸状態監視システムの開発を提案する。
その結果,鉄道軸受振動信号を時間周波数領域表現,すなわち分光図に変換し,そのひび割れに応じて2次元CNNを訓練する。
論文 参考訳(メタデータ) (2022-11-15T15:04:06Z) - enpheeph: A Fault Injection Framework for Spiking and Compressed Deep
Neural Networks [10.757663798809144]
スパイク・圧縮型ディープニューラルネットワーク(DNN)の故障注入フレームワークであるenpheephについて述べる。
ランダムかつ増加する故障数を注入することにより,DNNはパラメータあたり7 x 10 (-7) の故障率で精度を低下させることができ,精度は40%以上低下することを示した。
論文 参考訳(メタデータ) (2022-07-31T00:30:59Z) - Automatic Mapping of the Best-Suited DNN Pruning Schemes for Real-Time
Mobile Acceleration [71.80326738527734]
本稿では,汎用的,きめ細かな構造化プルーニング手法とコンパイラの最適化を提案する。
提案手法は,より微細な構造化プルーニング手法とともに,最先端のDNN最適化フレームワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-22T23:53:14Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z) - BLK-REW: A Unified Block-based DNN Pruning Framework using Reweighted
Regularization Method [69.49386965992464]
本稿では, 汎用的かつ柔軟な構造化プルーニング次元と, 強力かつ効率的な再加重正規化手法を組み合わせたブロック型プルーニングフレームワークを提案する。
我々のフレームワークは普遍的であり、CNNとRNNの両方に適用できる。
リアルタイムモバイルアクセラレーションと精度の妥協のないCNNとRNNの共通カバレッジを実現するのはこれが初めてである。
論文 参考訳(メタデータ) (2020-01-23T03:30:56Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。