論文の概要: AnalogNAS-Bench: A NAS Benchmark for Analog In-Memory Computing
- arxiv url: http://arxiv.org/abs/2506.18495v1
- Date: Mon, 23 Jun 2025 10:44:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.939509
- Title: AnalogNAS-Bench: A NAS Benchmark for Analog In-Memory Computing
- Title(参考訳): AnalogNAS-Bench: アナログインメモリコンピューティングのためのNASベンチマーク
- Authors: Aniss Bessalah, Hatem Mohamed Abdelmoumen, Karima Benatchba, Hadjer Benmeziane,
- Abstract要約: AnalogNAS-Benchは、Analog In-Memory Computing(AIMC)に特化したNASベンチマークである。
本研究は,(1)標準量子化技術がAIMC固有のノイズを捕捉できないこと,(2)ロバストなアーキテクチャがより広く分岐したブロックを特徴付けること,(3)スキップ接続が時間的ドリフトノイズに対するレジリエンスを改善すること,の3つの重要な知見を明らかにする。
- 参考スコア(独自算出の注目度): 0.4499833362998489
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Analog In-memory Computing (AIMC) has emerged as a highly efficient paradigm for accelerating Deep Neural Networks (DNNs), offering significant energy and latency benefits over conventional digital hardware. However, state-of-the-art neural networks are not inherently designed for AIMC, as they fail to account for its unique non-idealities. Neural Architecture Search (NAS) is thus needed to systematically discover neural architectures optimized explicitly for AIMC constraints. However, comparing NAS methodologies and extracting insights about robust architectures for AIMC requires a dedicated NAS benchmark that explicitly accounts for AIMC-specific hardware non-idealities. To address this, we introduce AnalogNAS-Bench, the first NAS benchmark tailored specifically for AIMC. Our study reveals three key insights: (1) standard quantization techniques fail to capture AIMC-specific noises, (2) robust architectures tend to feature wider and branched blocks, (3) skip connections improve resilience to temporal drift noise. These insights highlight the limitations of current NAS benchmarks for AIMC and pave the way for future analog-aware NAS. All the implementations used in this paper can be found at https://github.com/IBM/analog-nas/tree/main/analognasbench.
- Abstract(参考訳): アナログインメモリコンピューティング(AIMC)は、Deep Neural Networks(DNN)を加速するための非常に効率的なパラダイムとして登場し、従来のデジタルハードウェアよりも大きなエネルギーとレイテンシのメリットを提供している。
しかし、最先端のニューラルネットワークは本質的にAIMCのために設計されていない。
したがって、AIMC制約に明示的に最適化されたニューラルネットワークを体系的に発見するには、NAS(Neural Architecture Search)が必要である。
しかしながら、NAS方法論の比較とAIMCの堅牢なアーキテクチャに関する洞察の抽出には、AIMC固有のハードウェア非イデアルを明示的に考慮したNASベンチマークが必要である。
そこで我々はAIMCに特化したNASベンチマークであるAnalogNAS-Benchを紹介した。
本研究は,(1)標準量子化技術がAIMC固有のノイズを捕捉できないこと,(2)ロバストなアーキテクチャがより広く分岐したブロックを特徴付けること,(3)スキップ接続が時間的ドリフトノイズに対するレジリエンスを改善すること,の3つの重要な知見を明らかにする。
これらの洞察は、AIMCの現在のNASベンチマークの限界を強調し、将来のアナログ認識NASへの道を開く。
この論文で使用されるすべての実装はhttps://github.com/IBM/analog-nas/tree/main/analognasbenchで見ることができる。
関連論文リスト
- Accel-NASBench: Sustainable Benchmarking for Accelerator-Aware NAS [3.598880812393792]
本稿では,ベンチマーク構築のコストをかなりのマージンで削減する,訓練プロキシの検索を可能にする手法を提案する。
ベンチマークは正確で,最先端のハードウェア対応モデルをコストゼロで検索できることを示す。
論文 参考訳(メタデータ) (2024-04-09T06:23:41Z) - DiffusionNAG: Predictor-guided Neural Architecture Generation with Diffusion Models [56.584561770857306]
本研究では拡散モデルに基づく新しい条件付きニューラルネットワーク生成(NAG)フレームワークDiffusionNAGを提案する。
具体的には、ニューラルネットワークを有向グラフとみなし、それらを生成するためのグラフ拡散モデルを提案する。
本研究では,2つの予測型NAS(Transferable NAS)とベイズ最適化(BO)に基づくNAS(Bayesian Optimization)の2つのシナリオにおいて,DiffusionNAGの有効性を検証する。
BOベースのアルゴリズムに統合されると、DiffusionNAGは既存のBOベースのNASアプローチ、特にImageNet 1Kデータセット上の大規模なMobileNetV3検索スペースよりも優れている。
論文 参考訳(メタデータ) (2023-05-26T13:58:18Z) - Neural Architecture Search: Two Constant Shared Weights Initialisations [0.0]
エプシナス(Epsinas)は、2つの一定の共有重み付け初期化とそれらの出力統計を用いてアーキテクチャポテンシャルを評価する新しいゼロコストNAS計量である。
平均等級で正規化された原出力の分散は、訓練された精度と強く相関していることを示す。
我々の計算では、データラベルは必要とせず、単一のミニバッチで動作し、勾配の必要がなくなる。
論文 参考訳(メタデータ) (2023-02-09T02:25:38Z) - Generalization Properties of NAS under Activation and Skip Connection
Search [66.8386847112332]
ニューラルネットワーク探索(NAS)の一般化特性を統一的枠組みの下で検討する。
我々は, 有限幅政権下でのニューラル・タンジェント・カーネル(NTK)の最小固有値の下(および上)境界を導出する。
トレーニングなしでもNASがトップパフォーマンスアーキテクチャを選択する方法を示す。
論文 参考訳(メタデータ) (2022-09-15T12:11:41Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - U-Boost NAS: Utilization-Boosted Differentiable Neural Architecture
Search [50.33956216274694]
ターゲットプラットフォームにおけるリソース利用の最適化は、DNN推論時に高いパフォーマンスを達成するための鍵となる。
本稿では,タスクの正確性や推論遅延を最適化するだけでなく,資源利用のためのハードウェア対応NASフレームワークを提案する。
我々は,従来のハードウェア対応NAS法と比較して,DNN推論の2.8~4倍の高速化を実現している。
論文 参考訳(メタデータ) (2022-03-23T13:44:15Z) - FLASH: Fast Neural Architecture Search with Hardware Optimization [7.263481020106725]
ニューラルアーキテクチャサーチ(NAS)は、効率的かつ高性能なディープニューラルネットワーク(DNN)を設計するための有望な手法である
本稿では,実ハードウェアプラットフォーム上でのDNNの精度と性能を協調的に最適化する,非常に高速なNAS手法であるFLASHを提案する。
論文 参考訳(メタデータ) (2021-08-01T23:46:48Z) - Hierarchical Neural Architecture Search for Deep Stereo Matching [131.94481111956853]
本稿では, ディープステレオマッチングのための最初のエンドツーエンド階層型NASフレームワークを提案する。
我々のフレームワークは、タスク固有の人間の知識をニューラルアーキテクチャ検索フレームワークに組み込んでいる。
KITTI stereo 2012、2015、Middleburyベンチマークで1位、SceneFlowデータセットで1位にランクインしている。
論文 参考訳(メタデータ) (2020-10-26T11:57:37Z) - NAS-Bench-1Shot1: Benchmarking and Dissecting One-shot Neural
Architecture Search [42.82951139084501]
ワンショットニューラルアーキテクチャサーチ(NAS)は、NASメソッドを実際に計算可能とする上で重要な役割を担っている。
我々は、最近導入された多くの変種にインスタンス化できるワンショットNASのための一般的なフレームワークを導入し、一般的なベンチマークフレームワークを導入する。
論文 参考訳(メタデータ) (2020-01-28T15:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。