論文の概要: CIMNAS: A Joint Framework for Compute-In-Memory-Aware Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2509.25862v1
- Date: Tue, 30 Sep 2025 06:57:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.461021
- Title: CIMNAS: A Joint Framework for Compute-In-Memory-Aware Neural Architecture Search
- Title(参考訳): CIMNAS: コンピュータ・イン・メモリ・アウェア・ニューラルアーキテクチャ検索のための統合フレームワーク
- Authors: Olga Krestinskaya, Mohammed E. Fouda, Ahmed Eltawil, Khaled N. Salama,
- Abstract要約: 本研究は,CIMアーキテクチャのための共同モデル量子化ハードウェア最適化フレームワークであるCIMNASを紹介する。
CIMNASは同時に、ソフトウェアパラメータ、量子化ポリシー、幅広い範囲のハードウェアパラメータ、デバイス、回路、アーキテクチャレベルの共最適化を検索する。
他の最先端の手法とは異なり、CIMNASはEDAPを精度損失なく達成し、高性能CIMベースのニューラルネットワーク設計のための多様なパラメータの組み合わせを生成する。
- 参考スコア(独自算出の注目度): 1.4979445283937187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To maximize hardware efficiency and performance accuracy in Compute-In-Memory (CIM)-based neural network accelerators for Artificial Intelligence (AI) applications, co-optimizing both software and hardware design parameters is essential. Manual tuning is impractical due to the vast number of parameters and their complex interdependencies. To effectively automate the design and optimization of CIM-based neural network accelerators, hardware-aware neural architecture search (HW-NAS) techniques can be applied. This work introduces CIMNAS, a joint model-quantization-hardware optimization framework for CIM architectures. CIMNAS simultaneously searches across software parameters, quantization policies, and a broad range of hardware parameters, incorporating device-, circuit-, and architecture-level co-optimizations. CIMNAS experiments were conducted over a search space of 9.9x10^85 potential parameter combinations with the MobileNet model as a baseline and RRAM-based CIM architecture. Evaluated on the ImageNet dataset, CIMNAS achieved a reduction in energy-delay-area product (EDAP) ranging from 90.1x to 104.5x, an improvement in TOPS/W between 4.68x and 4.82x, and an enhancement in TOPS/mm^2 from 11.3x to 12.78x relative to various baselines, all while maintaining an accuracy of 73.81%. The adaptability and robustness of CIMNAS are demonstrated by extending the framework to support the SRAM-based ResNet50 architecture, achieving up to an 819.5x reduction in EDAP. Unlike other state-of-the-art methods, CIMNAS achieves EDAP-focused optimization without any accuracy loss, generating diverse software-hardware parameter combinations for high-performance CIM-based neural network designs. The source code of CIMNAS is available at https://github.com/OlgaKrestinskaya/CIMNAS.
- Abstract(参考訳): 人工知能(AI)アプリケーションのためのCompute-In-Memory(CIM)ベースのニューラルネットワークアクセラレータにおいて、ハードウェア効率と性能の精度を最大化するためには、ソフトウェアとハードウェア設計パラメータの共最適化が不可欠である。
手動チューニングは、膨大な数のパラメータとその複雑な相互依存性のために実用的ではない。
CIMベースのニューラルネットワークアクセラレータの設計と最適化を効果的に自動化するために、ハードウェア対応ニューラルネットワークサーチ(HW-NAS)技術を適用することができる。
本研究は,CIMアーキテクチャのための共同モデル量子化ハードウェア最適化フレームワークであるCIMNASを紹介する。
CIMNASは、ソフトウェアパラメータ、量子化ポリシー、幅広いハードウェアパラメータを同時に検索し、デバイス、回路、アーキテクチャレベルの共最適化を取り入れている。
CIMNAS実験は、ベースラインおよびRRAMベースのCIMアーキテクチャとしてMobileNetモデルと組み合わせた9.9x10^85ポテンシャルパラメータの探索空間上で行われた。
ImageNetデータセットに基づいて評価され、CIMNASはエネルギー遅延面積(EDAP)を90.1xから104.5xに、TOPS/Wを4.68xから4.82xに改善し、TOPS/mm^2を11.3xから12.78xに改善し、73.81%の精度を維持した。
CIMNASの適応性と堅牢性は、フレームワークを拡張してSRAMベースのResNet50アーキテクチャをサポートし、EDAPの819.5倍の削減を実現している。
他の最先端の手法とは異なり、CIMNASはEDAPにフォーカスした最適化を正確性を失うことなく達成し、高性能CIMベースのニューラルネットワーク設計のための多様なソフトウェアハードウェアパラメータの組み合わせを生成する。
CIMNASのソースコードはhttps://github.com/OlgaKrestinskaya/CIMNASで公開されている。
関連論文リスト
- RNC: Efficient RRAM-aware NAS and Compilation for DNNs on Resource-Constrained Edge Devices [0.30458577208819987]
我々は抵抗性ランダムアクセスメモリ(RRAM)に基づく加速器のためのエッジフレンドリーなディープニューラルネットワーク(DNN)の開発を目指している。
本稿では,特定のハードウェア制約を満たす最適化ニューラルネットワークを探索するための,エッジコンパイルとリソース制約付きRRAM対応ニューラルネットワーク探索(NAS)フレームワークを提案する。
NASが速度に最適化した結果のモデルは5x-30倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2024-09-27T15:35:36Z) - A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [56.09418231453024]
ニューラルアーキテクチャサーチ(NAS)により、研究者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく相互比較比較支援型多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - NeuroNAS: Enhancing Efficiency of Neuromorphic In-Memory Computing for Intelligent Mobile Agents through Hardware-Aware Spiking Neural Architecture Search [6.006032394972252]
スパイキングニューラルネットワーク(SNN)は、イベントベースの計算を活用して、超低消費電力/エネルギー機械学習アルゴリズムを実現する。
NeuroNASは、インテリジェントな移動体エージェントのためのエネルギー効率の良いニューロモルフィックMCを開発するための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-06-30T09:51:58Z) - DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - RoHNAS: A Neural Architecture Search Framework with Conjoint
Optimization for Adversarial Robustness and Hardware Efficiency of
Convolutional and Capsule Networks [10.946374356026679]
RoHNASは、Deep Neural Network(DNN)の対向ロバスト性とハードウェア効率を共同で最適化する新しいフレームワークである。
探索時間を短縮するため、RoHNASはNASフローで使用するデータセット毎に、逆摂動の適切な値を分析し、選択する。
論文 参考訳(メタデータ) (2022-10-11T09:14:56Z) - NPAS: A Compiler-aware Framework of Unified Network Pruning and
Architecture Search for Beyond Real-Time Mobile Acceleration [48.25487285358816]
異なるDNNと異なるプルーニングスキームをサポートするコンパイラ自動コード生成フレームワークを提案する。
また,NPAS,コンパイラ対応統合ネットワークプルーニング,アーキテクチャ検索を提案する。
我々のフレームワークは,市販携帯電話でそれぞれ78.2%,75%(MobileNet-V3レベル),71%(MobileNet-V2レベル)のTop-1精度で6.7ms,5.9ms,3.9msのImageNet推論時間を実現している。
論文 参考訳(メタデータ) (2020-12-01T16:03:40Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。