論文の概要: Near-Optimal Hardware Design for Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2002.05526v1
- Date: Thu, 6 Feb 2020 09:15:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 13:13:15.263345
- Title: Near-Optimal Hardware Design for Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークの近接最適ハードウェア設計
- Authors: Byungik Ahn
- Abstract要約: 本研究では,畳み込みニューラルネットワークのための新しい,特殊目的,高効率ハードウェアアーキテクチャを提案する。
提案アーキテクチャは,モデルの計算フローと同じ構造を持つ計算回路を設計することにより,乗算器の利用を最大化する。
提案するハードウェアアーキテクチャに基づく実装が,商用AI製品に適用されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, the demand of low-power deep-learning hardware for industrial
applications has been increasing. Most existing artificial intelligence (AI)
chips have evolved to rely on new chip technologies rather than on radically
new hardware architectures, to maintain their generality. This study proposes a
novel, special-purpose, and high-efficiency hardware architecture for
convolutional neural networks. The proposed architecture maximizes the
utilization of multipliers by designing the computational circuit with the same
structure as that of the computational flow of the model, rather than mapping
computations to fixed hardware. In addition, a specially designed filter
circuit simultaneously provides all the data of the receptive field, using only
one memory read operation during each clock cycle; this allows the computation
circuit to operate seamlessly without idle cycles. Our reference system based
on the proposed architecture uses 97% of the peak-multiplication capability in
actual computations required by the computation model throughout the
computation period. In addition, overhead components are minimized so that the
proportion of the resources constituting the non-multiplier components is
smaller than that constituting the multiplier components, which are
indispensable for the computational model. The efficiency of the proposed
architecture is close to an ideally efficient system that cannot be improved
further in terms of the performance-to-resource ratio. An implementation based
on the proposed hardware architecture has been applied in commercial AI
products.
- Abstract(参考訳): 近年,産業アプリケーションのための低消費電力ディープラーニングハードウェアの需要が高まっている。
既存の人工知能(AI)チップの多くは、その汎用性を維持するために、根本的に新しいハードウェアアーキテクチャではなく、新しいチップ技術に依存するように進化してきた。
本研究では,畳み込みニューラルネットワークのための新しい,特殊目的,高効率ハードウェアアーキテクチャを提案する。
提案アーキテクチャは,計算を固定ハードウェアにマッピングするのではなく,モデルの計算フローと同じ構造を持つ計算回路を設計することにより,乗算器の利用を最大化する。
さらに、特別に設計されたフィルタ回路は、各クロックサイクル中に1つのメモリ読み取り操作のみを使用して、受信フィールドの全データを同時に提供する。
提案アーキテクチャに基づく参照システムは,計算期間を通じて計算モデルに必要な実計算においてピーク乗算能力の97%を利用する。
また、非乗数成分を構成するリソースの割合が、計算モデルに欠かせない乗数成分を構成するものよりも小さいように、オーバーヘッド成分を最小化する。
提案したアーキテクチャの効率性は,性能と資源の比でさらに改善できない理想的に効率的なシステムに近づいた。
提案するハードウェアアーキテクチャに基づく実装が,商用AI製品に適用されている。
関連論文リスト
- AsCAN: Asymmetric Convolution-Attention Networks for Efficient Recognition and Generation [48.82264764771652]
本稿では,畳み込みブロックと変圧器ブロックを組み合わせたハイブリッドアーキテクチャAsCANを紹介する。
AsCANは、認識、セグメンテーション、クラス条件画像生成など、さまざまなタスクをサポートしている。
次に、同じアーキテクチャをスケールして、大規模なテキスト・イメージタスクを解決し、最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-11-07T18:43:17Z) - Co-design of a novel CMOS highly parallel, low-power, multi-chip neural network accelerator [0.0]
我々は,並列処理(>10X)を大幅に高速化し,消費電力を大幅に削減する新しい低消費電力ASICAIプロセッサであるNV-1を提案する。
結果のデバイスは、現在、フィールド化されたエッジセンサーアプリケーションで使用されている。
論文 参考訳(メタデータ) (2024-09-28T15:47:16Z) - Mechanistic Design and Scaling of Hybrid Architectures [114.3129802943915]
我々は、様々な計算プリミティブから構築された新しいハイブリッドアーキテクチャを特定し、テストする。
本研究では,大規模計算最適法則と新しい状態最適スケーリング法則解析を用いて,結果のアーキテクチャを実験的に検証する。
我々は,MAD合成法と計算-最適パープレキシティを相関させ,新しいアーキテクチャの正確な評価を可能にする。
論文 参考訳(メタデータ) (2024-03-26T16:33:12Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - Input Convex Lipschitz RNN: A Fast and Robust Approach for Engineering Tasks [14.835081385422653]
入力凸リプシッツリカレントニューラルネットワークと呼ばれる新しいネットワークアーキテクチャを開発した。
このモデルは、高速で堅牢な最適化ベースのタスクのために明示的に設計されている。
我々は、様々な実用工学的応用でこのモデルを成功裏に実装した。
論文 参考訳(メタデータ) (2024-01-15T06:26:53Z) - Distributed On-Sensor Compute System for AR/VR Devices: A
Semi-Analytical Simulation Framework for Power Estimation [2.5696683295721883]
そこで本研究では,分散オンセンサコンピューティングアーキテクチャにより,集中型システムに比べてシステム消費電力を低減できることを示す。
計算集約型機械学習に基づくハンドトラッキングアルゴリズムの場合、分散オンセンサーコンピューティングアーキテクチャはシステムの消費電力を削減できることを示す。
論文 参考訳(メタデータ) (2022-03-14T20:18:24Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Reconfigurable co-processor architecture with limited numerical
precision to accelerate deep convolutional neural networks [0.38848561367220275]
畳み込みニューラルネットワーク(CNN)は、視覚システムやロボット工学などのディープラーニングアプリケーションで広く使われている。
本稿では,CNNを高速化するために,モデルに依存しない再構成可能なコプロセッシングアーキテクチャを提案する。
既存の解とは対照的に、算術表現や演算のための限定精度32bit Q-format固定点量子化を導入する。
論文 参考訳(メタデータ) (2021-08-21T09:50:54Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - HCM: Hardware-Aware Complexity Metric for Neural Network Architectures [6.556553154231475]
本稿では,ニューラルネットワークアーキテクチャのシステムデザイナを支援することを目的とした,ハードウェア対応の複雑性指標を提案する。
提案手法は,資源制限されたデバイス上でのニューラルネットワークモデルの設計代替案の評価にどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-04-19T16:42:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。