論文の概要: When Small Variations Become Big Failures: Reliability Challenges in Compute-in-Memory Neural Accelerators
- arxiv url: http://arxiv.org/abs/2603.03491v1
- Date: Tue, 03 Mar 2026 20:08:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.075778
- Title: When Small Variations Become Big Failures: Reliability Challenges in Compute-in-Memory Neural Accelerators
- Title(参考訳): 小さな変化が大きな障害になるとき--コンピュータ・イン・メモリ・ニューラル加速器の信頼性問題
- Authors: Yifan Qin, Jiahao Zheng, Zheyu Yan, Wujie Wen, Xiaobo Sharon Hu, Yiyu Shi,
- Abstract要約: 安全クリティカルな推論ワークロードにおいて、小さなデバイスのバリエーションであっても、不均等に高い精度の劣化と破滅的な失敗を引き起こす可能性があることを示す。
SWIMは選択的な書き込み検証機構であり、最も影響の大きい場所のみに戦略的に検証を適用する。
最後に、学習中心のソリューションについて検討し、右利きノイズのあるネットワークをトレーニングすることで、現実的な最悪のパフォーマンスを改善する。
- 参考スコア(独自算出の注目度): 10.520875052654771
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compute-in-memory (CiM) architectures promise significant improvements in energy efficiency and throughput for deep neural network acceleration by alleviating the von Neumann bottleneck. However, their reliance on emerging non-volatile memory devices introduces device-level non-idealities-such as write variability, conductance drift, and stochastic noise-that fundamentally challenge reliability, predictability, and safety, especially in safety-critical applications. This talk examines the reliability limits of CiM-based neural accelerators and presents a series of techniques that bridge device physics, architecture, and learning algorithms to address these challenges. We first demonstrate that even small device variations can lead to disproportionately large accuracy degradation and catastrophic failures in safety-critical inference workloads, revealing a critical gap between average-case evaluations and worst-case behavior. Building on this insight, we introduce SWIM, a selective write-verify mechanism that strategically applies verification only where it is most impactful, significantly improving reliability while maintaining CiM's efficiency advantages. Finally, we explore a learning-centric solution that improves realistic worst-case performance by training neural networks with right-censored Gaussian noise, aligning training assumptions with hardware-induced variability and enabling robust deployment without excessive hardware overhead. Together, these works highlight the necessity of cross-layer co-design for CiM accelerators and provide a principled path toward dependable, efficient neural inference on emerging memory technologies-paving the way for their adoption in safety- and reliability-critical systems.
- Abstract(参考訳): Compute-in-Memory(CiM)アーキテクチャは、von Neumannボトルネックを軽減することで、ディープニューラルネットワークアクセラレーションのためのエネルギー効率とスループットを大幅に改善する。
しかし、新しい非揮発性メモリデバイスへの依存は、特に安全クリティカルなアプリケーションにおいて、基本的に信頼性、予測可能性、安全性に挑戦する書き込みのばらつき、コンダクタンスドリフト、確率的ノイズのようなデバイスレベルの非理想性を導入している。
本講演では,CiMベースのニューラルアクセラレータの信頼性限界について検討し,これらの課題に対処するためのデバイス物理,アーキテクチャ,学習アルゴリズムをブリッジする一連のテクニックを紹介する。
まず、安全クリティカルな推論ワークロードにおいて、小さなデバイスのバリエーションであっても、不均等に高い精度の劣化と破滅的な失敗を招き、平均ケース評価と最悪のケース動作の間に重要なギャップがあることを実証した。
この知見に基づいて、SWIMという選択的な書き込み検証機構を導入し、CiMの効率性を維持しながら、最も影響のある場所のみを戦略的に適用し、信頼性を著しく向上する。
最後に、右チャージされたガウスノイズでニューラルネットワークをトレーニングし、トレーニング仮定をハードウェアによる可変性と整合させ、過度のハードウェアオーバーヘッドを伴わずにロバストなデプロイメントを可能にすることによって、現実的な最悪のパフォーマンスを改善する学習中心のソリューションについて検討する。
これらの研究は共に、CiMアクセラレーターのクロスレイヤ共同設計の必要性を強調し、新興メモリ技術への信頼性と効率的な神経推論への原則的パスを提供する。
関連論文リスト
- Blockchain-Enabled Routing for Zero-Trust Low-Altitude Intelligent Networks [77.17664010626726]
低高度インテリジェントネットワーク(LAIN)における複数のUAVクラスタによるルーティングに焦点を当てる。
潜在的な脅威によるダメージを最小限に抑えるため,ソフトウェア定義の周辺技術とブロックチェーン技術を用いたゼロトラストアーキテクチャを提案する。
提案手法は,平均E2E遅延を59%削減し,TSRを29%改善することを示した。
論文 参考訳(メタデータ) (2026-02-27T04:30:35Z) - Towards Trustworthy Wi-Fi Sensing: Systematic Evaluation of Deep Learning Model Robustness to Adversarial Attacks [4.5835414225547195]
我々は、多様な脅威モデルと様々な攻撃リアリズムの下で、CSI深層学習モデルの堅牢性を評価する。
私たちの実験では、より小さなモデルは効率的で、クリーンなデータでも等しく機能するが、明らかにロバストさが低いことが示されています。
物理的に実現可能な信号空間の摂動は、実際の無線チャネルで実現可能なように設計されており、攻撃の成功を著しく減少させる。
論文 参考訳(メタデータ) (2025-11-25T16:24:29Z) - Communication-Efficient Federated Learning by Quantized Variance Reduction for Heterogeneous Wireless Edge Networks [55.467288506826755]
フェデレーテッド・ラーニング(FL)は、無線エッジネットワークにおけるローカル・プライバシ・アウェア・コラボレーティブ・モデルトレーニングの有効なソリューションとして認識されている。
既存の通信効率の高いFLアルゴリズムは、デバイス間の大きなばらつきを低減できない。
本稿では,高度分散還元方式に依存する新しい通信効率FLアルゴリズムであるFedQVRを提案する。
論文 参考訳(メタデータ) (2025-01-20T04:26:21Z) - Evaluating Single Event Upsets in Deep Neural Networks for Semantic Segmentation: an embedded system perspective [1.474723404975345]
本稿では,組み込みディープニューラルネットワーク(DNN)のロバスト性評価について述べる。
本研究は,様々なエンコーダデコーダモデルの層間およびビット間感度をソフトエラーに精査することにより,セグメント化DNNのSEUに対する脆弱性を徹底的に調査する。
本稿では,資源制約によるデプロイメントに適したメモリや計算コストを伴わない,実用的な軽量なエラー軽減手法を提案する。
論文 参考訳(メタデータ) (2024-12-04T18:28:38Z) - Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - Digital Twin-Assisted Data-Driven Optimization for Reliable Edge Caching in Wireless Networks [60.54852710216738]
我々はD-RECと呼ばれる新しいデジタルツインアシスト最適化フレームワークを導入し、次世代無線ネットワークにおける信頼性の高いキャッシュを実現する。
信頼性モジュールを制約付き決定プロセスに組み込むことで、D-RECは、有利な制約に従うために、アクション、報酬、状態を適応的に調整することができる。
論文 参考訳(メタデータ) (2024-06-29T02:40:28Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - Center-Sensitive Kernel Optimization for Efficient On-Device Incremental Learning [88.78080749909665]
現在のオンデバイストレーニング手法は、破滅的な忘れを考慮せずに、効率的なトレーニングにのみ焦点をあてている。
本稿では,単純だが効果的なエッジフレンドリーなインクリメンタル学習フレームワークを提案する。
本手法は,メモリの削減と近似計算により,平均精度38.08%の高速化を実現する。
論文 参考訳(メタデータ) (2024-06-13T05:49:29Z) - Enhancing Reliability of Neural Networks at the Edge: Inverted
Normalization with Stochastic Affine Transformations [0.22499166814992438]
インメモリコンピューティングアーキテクチャに実装されたBayNNのロバスト性と推論精度を本質的に向上する手法を提案する。
実証的な結果は推論精度の優雅な低下を示し、最大で58.11%の値で改善された。
論文 参考訳(メタデータ) (2024-01-23T00:27:31Z) - Scalable and Efficient Methods for Uncertainty Estimation and Reduction
in Deep Learning [0.0]
本稿では,ディープラーニングにおける不確実性推定と削減のためのスケーラブルで効率的な手法について検討する。
アウト・オブ・ディストリビューション・インプットとハードウェアの非理想性に起因する不確実性に対処する。
提案手法は,問題認識学習アルゴリズム,新しいNNトポロジ,ハードウェア共同設計ソリューションを含む。
論文 参考訳(メタデータ) (2024-01-13T19:30:34Z) - Compute-in-Memory based Neural Network Accelerators for Safety-Critical
Systems: Worst-Case Scenarios and Protections [8.813981342105151]
本稿では,CiM加速器の最悪の性能をデバイス変動の影響で特定する問題について検討する。
本稿では,対向訓練とノイズ注入訓練を効果的に組み合わせた,A-TRICEという新たな最悪の事例認識訓練手法を提案する。
実験の結果,A-TRICEは機器の変量下での最悪のケース精度を最大33%向上することがわかった。
論文 参考訳(メタデータ) (2023-12-11T05:56:00Z) - Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。