論文の概要: MDM: Manhattan Distance Mapping of DNN Weights for Parasitic-Resistance-Resilient Memristive Crossbars
- arxiv url: http://arxiv.org/abs/2511.04798v1
- Date: Thu, 06 Nov 2025 20:34:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.583086
- Title: MDM: Manhattan Distance Mapping of DNN Weights for Parasitic-Resistance-Resilient Memristive Crossbars
- Title(参考訳): MDM:DNN重量のマンハッタン距離マッピング
- Authors: Matheus Farias, Wanghley Martins, H. T. Kung,
- Abstract要約: マンハッタン距離マッピング(Manhattan Distance Mapping、MDM)は、中間ビットスライクメモリ(CIM)クロスバーのウェイトマッピング手法である。
MDMは活性膜配置を最適化することでPR効果を緩和する。
ImageNet-1k上のDNNモデルに適用すると、MDMはNFを最大46%削減し、ResNetsの平均3.6%のアナログ歪み下での精度を向上させる。
- 参考スコア(独自算出の注目度): 0.8257237303742611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Manhattan Distance Mapping (MDM) is a post-training deep neural network (DNN) weight mapping technique for memristive bit-sliced compute-in-memory (CIM) crossbars that reduces parasitic resistance (PR) nonidealities. PR limits crossbar efficiency by mapping DNN matrices into small crossbar tiles, reducing CIM-based speedup. Each crossbar executes one tile, requiring digital synchronization before the next layer. At this granularity, designers either deploy many small crossbars in parallel or reuse a few sequentially-both increasing analog-to-digital conversions, latency, I/O pressure, and chip area. MDM alleviates PR effects by optimizing active-memristor placement. Exploiting bit-level structured sparsity, it feeds activations from the denser low-order side and reorders rows according to the Manhattan distance, relocating active cells toward regions less affected by PR and thus lowering the nonideality factor (NF). Applied to DNN models on ImageNet-1k, MDM reduces NF by up to 46% and improves accuracy under analog distortion by an average of 3.6% in ResNets. Overall, it provides a lightweight, spatially informed method for scaling CIM DNN accelerators.
- Abstract(参考訳): Manhattan Distance Mapping (MDM) は、Memristive Bit-Sliced Compute-in-Memory (CIM) クロスバーのトレーニング後のディープニューラルネットワーク(DNN)ウェイトマッピング技術で、寄生抵抗(PR)非理想性を低減している。
PRはDNN行列を小さなクロスバータイルにマッピングすることでクロスバー効率を制限し、CIMベースのスピードアップを減らす。
各クロスバーは1つのタイルを実行し、次のレイヤの前にデジタル同期を必要とする。
この粒度では、デザイナは多くの小さなクロスバーを並列にデプロイするか、アナログからデジタルへの変換の増加、レイテンシ、I/O圧力、チップ領域を連続的に再利用する。
MDMは活性膜配置を最適化することでPR効果を緩和する。
ビットレベルの構造化された空間を爆発させると、より高密度な低次側からの活性化を供給し、マンハッタン距離に応じて行を並べ替え、活性細胞をPRの影響を受けない領域へ移動させ、非理想因子(NF)を低下させる。
ImageNet-1k上のDNNモデルに適用すると、MDMはNFを最大46%削減し、ResNetsの平均3.6%のアナログ歪み下での精度を向上させる。
全体として、CIM DNNアクセラレータをスケーリングするための軽量で空間的に情報を提供する。
関連論文リスト
- EDFFDNet: Towards Accurate and Efficient Unsupervised Multi-Grid Image Registration [17.190325630307097]
本稿では指数デカイ基底関数を用いた自由形変形を用いた指数デカイ自由形変形ネットワーク(EDFFDNet)を提案する。
密接な相互作用をスパースなものにすることで、ASMAはパラメータを減らし、精度を向上させる。
EDFFDNetは、パラメータ、メモリ、総ランタイムをそれぞれ70.5%、32.6%、33.7%削減することを示した。
EDFFDNet-2はより少ない計算コストを維持しながらPSNRを1.06dB改善する。
論文 参考訳(メタデータ) (2025-09-09T12:30:51Z) - CIM-NET: A Video Denoising Deep Neural Network Model Optimized for Computing-in-Memory Architectures [4.1888033476195226]
CIMチップはメモリセルに統合することで、有望なソリューションを提供する。
既存のDNNモデルはCIMアーキテクチャの制約を考慮せずに設計されることが多い。
本稿では,2つのイノベーションを取り入れたハードウェア・アルゴリズム協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-23T02:26:56Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - SpiDR: A Reconfigurable Digital Compute-in-Memory Spiking Neural Network Accelerator for Event-based Perception [8.968583287058959]
スパイキングニューラルネットワーク(SNN)は、ダイナミックビジョンセンサー(DVS)によって生成された非同期時間データを効率的に処理する方法を提供する。
既存のSNNアクセラレータは、多様なニューロンモデル、ビット精度、ネットワークサイズへの適応性の制限に悩まされている。
本稿では,CIM (Citical Compute-in-Memory) SNNアクセラレーターを,拡張性および再構成性を備えたチップ名として提案する。
論文 参考訳(メタデータ) (2024-11-05T06:59:02Z) - MT-SNN: Enhance Spiking Neural Network with Multiple Thresholds [2.3531574267580035]
スパイキングニューラルネットワーク(SNN)は、従来のニューラルネットワーク(ANN)に代わる有望なエネルギー効率を提供する
精度損失を軽減し,SNNの精度を大幅に向上させるMultiple Threshold (MT) 手法を提案する。
CIFAR10, CIFAR100, ImageNet, DVS-CIFAR10データセットに対する実験により, MTモードがシングルスレッドSNNの性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-03-20T14:04:50Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - SME: ReRAM-based Sparse-Multiplication-Engine to Squeeze-Out Bit
Sparsity of Neural Network [18.79036546647254]
我々はSparse-Multiplication-Engine(SME)という新しいReRAMベースのディープニューラルネットワーク(DNN)アクセラレータを開発した。
まず、ビットスパースパターンを編成し、既存の量子化法に基づいてビットスパース密度を増加させる。
第2に,重みのビットをクロスバーにスライスし,周辺回路の活性化結果をスプライシングする新しい重み付けマッピング機構を提案する。
第三に、上質な押出し方式は、以前の2つのステップから高度にスパースなノンゼロでマッピングされたクロスバーを空にする。
論文 参考訳(メタデータ) (2021-03-02T13:27:15Z) - MicroNet: Towards Image Recognition with Extremely Low FLOPs [117.96848315180407]
MicroNetは計算コストの極めて低い効率的な畳み込みニューラルネットワークである。
MicroNetのファミリは、低いFLOP体制における最先端技術よりも大きなパフォーマンス向上を実現している。
例えば、MicroNet-M1は12のMFLOPを持つImageNet分類において61.1%のトップ-1の精度を達成し、MobileNetV3を11.3%上回っている。
論文 参考訳(メタデータ) (2020-11-24T18:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。