論文の概要: CIM-NET: A Video Denoising Deep Neural Network Model Optimized for Computing-in-Memory Architectures
- arxiv url: http://arxiv.org/abs/2505.21522v1
- Date: Fri, 23 May 2025 02:26:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.121011
- Title: CIM-NET: A Video Denoising Deep Neural Network Model Optimized for Computing-in-Memory Architectures
- Title(参考訳): CIM-NET: メモリ内アーキテクチャに最適化されたディープニューラルネットワークモデルを示すビデオ
- Authors: Shan Gao, Zhiqiang Wu, Yawen Niu, Xiaotao Li, Qingqing Xu,
- Abstract要約: CIMチップはメモリセルに統合することで、有望なソリューションを提供する。
既存のDNNモデルはCIMアーキテクチャの制約を考慮せずに設計されることが多い。
本稿では,2つのイノベーションを取り入れたハードウェア・アルゴリズム協調設計フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.1888033476195226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While deep neural network (DNN)-based video denoising has demonstrated significant performance, deploying state-of-the-art models on edge devices remains challenging due to stringent real-time and energy efficiency requirements. Computing-in-Memory (CIM) chips offer a promising solution by integrating computation within memory cells, enabling rapid matrix-vector multiplication (MVM). However, existing DNN models are often designed without considering CIM architectural constraints, thus limiting their acceleration potential during inference. To address this, we propose a hardware-algorithm co-design framework incorporating two innovations: (1) a CIM-Aware Architecture, CIM-NET, optimized for large receptive field operation and CIM's crossbar-based MVM acceleration; and (2) a pseudo-convolutional operator, CIM-CONV, used within CIM-NET to integrate slide-based processing with fully connected transformations for high-quality feature extraction and reconstruction. This framework significantly reduces the number of MVM operations, improving inference speed on CIM chips while maintaining competitive performance. Experimental results indicate that, compared to the conventional lightweight model FastDVDnet, CIM-NET substantially reduces MVM operations with a slight decrease in denoising performance. With a stride value of 8, CIM-NET reduces MVM operations to 1/77th of the original, while maintaining competitive PSNR (35.11 dB vs. 35.56 dB
- Abstract(参考訳): ディープニューラルネットワーク(DNN)ベースのビデオデノゲーションは大きなパフォーマンスを示しているが、エッジデバイスに最先端のモデルをデプロイすることは、厳しいリアルタイムとエネルギー効率の要求のため、依然として困難である。
Computing-in-Memory(CIM)チップは、メモリセルに計算を統合することで、高速な行列ベクトル乗算(MVM)を可能にする、有望なソリューションを提供する。
しかし、既存のDNNモデルはCIMアーキテクチャ上の制約を考慮せずに設計されることが多いため、推論時のアクセラレーションポテンシャルは制限される。
そこで本研究では,CIM-Aware ArchitectureとCIM-NETのクロスバーベースMVMアクセラレーションに最適化されたCIM-Aware Architectureと,CIM-NET内で使用される擬似畳み込み演算子CIM-CONVの2つのイノベーションを取り入れたハードウェア・アルゴリズムの共同設計フレームワークを提案する。
このフレームワークは、競合性能を維持しながら、CIMチップの推論速度を向上し、MVM操作数を著しく削減する。
実験結果から,従来の軽量モデルであるFastDVDnetと比較して,CIM-NETはデノナイジング性能をわずかに低下させることなく,MVM操作を大幅に削減することがわかった。
8のストライド値で、CIM-NETはMVM操作を元の1/77に削減し、競合するPSNR (35.11 dB vs. 35.56 dB) を維持した。
関連論文リスト
- MCU-MixQ: A HW/SW Co-optimized Mixed-precision Neural Network Design Framework for MCUs [9.719789698194154]
ニューラルネットワーク処理に十分なデータ幅を利用する混合精度ニューラルネットワーク(MPNN)は、厳密なリソース制約を満たすための効果的なアプローチである。
しかし、MCUクラスのISAにはサブバイトと混合精度のSIMD操作がない。
本研究では,複数の低ビット幅演算を単一の命令多重データ(SIMD)命令にパックする手法を提案する。
論文 参考訳(メタデータ) (2024-07-17T14:51:15Z) - Full-Stack Optimization for CAM-Only DNN Inference [2.0837295518447934]
本稿では,3次重み付けニューラルネットワークと連想プロセッサのアルゴリズム最適化の組み合わせについて検討する。
演算強度を低減し,APの畳み込みを最適化する新しいコンパイルフローを提案する。
本研究では,イメージネット上でのResNet-18推論のエネルギー効率を,クロスバーメモリアクセラレータと比較して7.5倍向上させる。
論文 参考訳(メタデータ) (2024-01-23T10:27:38Z) - EPIM: Efficient Processing-In-Memory Accelerators based on Epitome [78.79382890789607]
畳み込みのような機能を提供する軽量神経オペレータであるEpitomeを紹介する。
ソフトウェア側では,PIMアクセラレータ上でのエピトームのレイテンシとエネルギを評価する。
ハードウェア効率を向上させるため,PIM対応層設計手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T17:56:39Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Bulk-Switching Memristor-based Compute-In-Memory Module for Deep Neural
Network Training [15.660697326769686]
本稿では,memristor-based Compute-in-Memory (CIM)モジュールの混合精度トレーニング手法を提案する。
提案方式は、完全に統合されたアナログCIMモジュールとデジタルサブシステムからなるシステムオンチップ(SoC)を用いて実装される。
より大規模なモデルのトレーニングの有効性は、現実的なハードウェアパラメータを用いて評価され、アナログCIMモジュールが、完全精度のソフトウェアトレーニングモデルに匹敵する精度で、効率的な混合精度トレーニングを可能にすることを示す。
論文 参考訳(メタデータ) (2023-05-23T22:03:08Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - A Mixed Quantization Network for Computationally Efficient Mobile
Inverse Tone Mapping [8.277567852741242]
深層ニューラルネットワークの効率的な演算と新しい混合量子化手法を組み合わせることで、高性能だが計算効率の良い混合量子化ネットワーク(MQN)を構築することを提案する。
MQNはレイテンシを最大10倍改善し、メモリ消費を25倍改善する。
論文 参考訳(メタデータ) (2022-03-12T19:40:01Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - A Heterogeneous In-Memory Computing Cluster For Flexible End-to-End
Inference of Real-World Deep Neural Networks [12.361842554233558]
最新のTinyMLタスクを小さなバッテリに制約されたIoTデバイスにデプロイするには、高い計算エネルギー効率が必要である。
非揮発性メモリ(NVM)を使用したアナログメモリコンピューティング(IMC)は、ディープニューラルネットワーク(DNN)推論の大幅な効率向上を実現する。
8つのRISC-Vコア、インメモリ・コンピューティング・アクセラレータ(IMA)、デジタル・アクセラレータを統合した異種密結合アーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-01-04T11:12:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。