論文の概要: SafeCiM: Investigating Resilience of Hybrid Floating-Point Compute-in-Memory Deep Learning Accelerators
- arxiv url: http://arxiv.org/abs/2512.00059v1
- Date: Sun, 23 Nov 2025 01:06:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.026467
- Title: SafeCiM: Investigating Resilience of Hybrid Floating-Point Compute-in-Memory Deep Learning Accelerators
- Title(参考訳): SafeCiM:ハイブリッド浮動小数点Deep Learning Acceleratorのレジリエンスの調査
- Authors: Swastik Bhattacharya, Sanjay Das, Anand Menon, Shamik Kundu, Arnab Raha, Kanad Basu,
- Abstract要約: 本稿では,FP-CiMのハードウェア欠陥に対する脆弱性について検討し,ミッションクリティカルな設定において信頼性に大きな懸念を呈する。
本稿では, 耐故障性設計であるSafeCiMを提案する。
- 参考スコア(独自算出の注目度): 2.5725493704343063
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep Neural Networks (DNNs) continue to grow in complexity with Large Language Models (LLMs) incorporating vast numbers of parameters. Handling these parameters efficiently in traditional accelerators is limited by data-transmission bottlenecks, motivating Compute-in-Memory (CiM) architectures that integrate computation within or near memory to reduce data movement. Recent work has explored CiM designs using Floating-Point (FP) and Integer (INT) operations. FP computations typically deliver higher output quality due to their wider dynamic range and precision, benefiting precision-sensitive Generative AI applications. These include models such as LLMs, thus driving advancements in FP-CiM accelerators. However, the vulnerability of FP-CiM to hardware faults remains underexplored, posing a major reliability concern in mission-critical settings. To address this gap, we systematically analyze hardware fault effects in FP-CiM by introducing bit-flip faults at key computational stages, including digital multipliers, CiM memory cells, and digital adder trees. Experiments with Convolutional Neural Networks (CNNs) such as AlexNet and state-of-the-art LLMs including LLaMA-3.2-1B and Qwen-0.3B-Base reveal how faults at each stage affect inference accuracy. Notably, a single adder fault can reduce LLM accuracy to 0%. Based on these insights, we propose a fault-resilient design, SafeCiM, that mitigates fault impact far better than a naive FP-CiM with a pre-alignment stage. For example, with 4096 MAC units, SafeCiM reduces accuracy degradation by up to 49x for a single adder fault compared to the baseline FP-CiM architecture.
- Abstract(参考訳): Deep Neural Networks(DNN)は、膨大な数のパラメータを組み込んだLarge Language Models(LLM)とともに、複雑さを増し続けている。
これらのパラメータを従来のアクセラレーターで効率的に処理することは、データ転送ボトルネックによって制限され、データ移動を減らすためにメモリ内または周辺で計算を統合するCompute-in-Memory(CiM)アーキテクチャを動機付ける。
最近の研究はFloating-Point (FP) と Integer (INT) を用いてCiMの設計を調査している。
FP計算は通常、より広いダイナミックレンジと精度のために高い出力品質を提供し、精度に敏感な生成AIアプリケーションに恩恵を与える。
LLMのようなモデルが含まれており、FP-CiM加速器の進歩を加速している。
しかし、ハードウェアの欠陥に対するFP-CiMの脆弱性は未調査のままであり、ミッションクリティカルな設定において大きな信頼性上の懸念を呈している。
このギャップに対処するために、我々は、デジタル乗算器、CiMメモリセル、デジタル加算木を含む重要な計算段階でビットフリップ故障を導入することにより、FP-CiMのハードウェア故障効果を系統的に解析する。
AlexNetやLLaMA-3.2-1BやQwen-0.3B-Baseといった最先端のLLMなどの畳み込みニューラルネットワーク(CNN)による実験は、各ステージの故障が推論精度にどのように影響するかを明らかにしている。
特に、単一加算器故障はLDMの精度を0%に低下させることができる。
これらの知見に基づき, 予備調整段階の単純FP-CiMよりも優れた耐故障性設計であるSafeCiMを提案する。
例えば、4096 MACユニットでは、SafeCiMはベースラインのFP-CiMアーキテクチャと比較して1つの加算器故障の精度を最大49倍に低下させる。
関連論文リスト
- Nemotron-Flash: Towards Latency-Optimal Hybrid Small Language Models [97.55009021098554]
本研究の目的は、SLMのリアルタイムレイテンシの主要な決定要因を特定し、SLMの設計とトレーニングのための一般化可能な原則と方法論を提供することである。
我々はNemotron-Flashと呼ばれるハイブリッドSLMの新たなファミリーを導入し、最先端SLMの精度・効率のフロンティアを大幅に向上させる。
論文 参考訳(メタデータ) (2025-11-24T08:46:36Z) - Lightweight Fault Detection Architecture for NTT on FPGA [0.8793721044482612]
ポスト量子暗号(PQC)アルゴリズムは数学的に安全であり、量子攻撃に耐性がある。
天然の欠陥や意図的な障害注入のために、ハードウェア実装の機密情報を漏洩することができる。
本研究は,軽量で効率的な再計算に基づく故障検出モジュールを提案する。
論文 参考訳(メタデータ) (2025-08-05T04:23:50Z) - GenBFA: An Evolutionary Optimization Approach to Bit-Flip Attacks on LLMs [3.967858172081495]
大規模言語モデル (LLM) は自然言語処理 (NLP) に革命をもたらした。
ミッションクリティカルなアプリケーションの採用が増えると、ハードウェアベースの脅威、特にビットフリップ攻撃(BFA)に対する懸念が高まる。
論文 参考訳(メタデータ) (2024-11-21T00:01:51Z) - Progressive Mixed-Precision Decoding for Efficient LLM Inference [49.05448842542558]
我々は,デコーディングのメモリバウンドネスに対処するために,プログレッシブ・ミックス・プレシジョン・デコーディング(PMPD)を導入する。
PMPDはfp16モデルの行列ベクトル乗算において1.4$-$12.2$times$ Speedupを達成する。
我々の手法は、fp16モデルよりも3.8$-$8.0$times$、均一量子化アプローチよりも1.54$times$のスループット向上をもたらす。
論文 参考訳(メタデータ) (2024-10-17T11:46:33Z) - Deep Learning Assisted Multiuser MIMO Load Modulated Systems for
Enhanced Downlink mmWave Communications [68.96633803796003]
本稿では, マルチユーザ負荷変調アレイ (MU-LMA) に着目し, マイクロウェーブ (mmWave) マルチインプット・マルチアウトプット (MIMO) システムにおいて, マルチユーザ負荷変調アレイ (MU-LMA) の小型化とコスト削減を図っている。
ダウンリンクMU-LMAの既存のプリコーディングアルゴリズムは、自由度と複雑なシステム構成の低下に悩まされるサブアレイ構造化(SAS)送信機に依存している。
本稿では,FAS (Full-array Structured) 送信機を用いたMU-LMAシステムを提案し,それに応じて2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-08T08:54:56Z) - Fast and Accurate Error Simulation for CNNs against Soft Errors [64.54260986994163]
本稿では,誤りシミュレーションエンジンを用いて,コナールニューラルネットワーク(CNN)の信頼性解析のためのフレームワークを提案する。
これらの誤差モデルは、故障によって誘導されるCNN演算子の出力の破損パターンに基づいて定義される。
提案手法は,SASSIFIの欠陥効果の約99%の精度と,限定的なエラーモデルのみを実装した44倍から63倍までのスピードアップを実現する。
論文 参考訳(メタデータ) (2022-06-04T19:45:02Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - A Survey on Impact of Transient Faults on BNN Inference Accelerators [0.9667631210393929]
ビッグデータブームにより、非常に大きなデータセットへのアクセスと分析が容易になります。
ディープラーニングモデルは、計算能力と極めて高いメモリアクセスを必要とする。
本研究では,ソフトエラーが独自の深層学習アルゴリズムに与える影響が画像の劇的な誤分類を引き起こす可能性を実証した。
論文 参考訳(メタデータ) (2020-04-10T16:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。