論文の概要: A Very Compact Embedded CNN Processor Design Based on Logarithmic
Computing
- arxiv url: http://arxiv.org/abs/2010.11686v1
- Date: Tue, 13 Oct 2020 23:48:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 23:31:04.000846
- Title: A Very Compact Embedded CNN Processor Design Based on Logarithmic
Computing
- Title(参考訳): 対数計算に基づく超小型組込みCNNプロセッサの設計
- Authors: Tsung-Ying Lu, Hsu-Hsun Chin, Hsin-I Wu, and Ren-Song Tsay
- Abstract要約: 私たちの高品質CNNプロセッサは、エッジデバイスに簡単に適合します。
Yolov2 では, TSMC 40 nm セルライブラリを使用すれば 0.15 mm2 しか処理できない。
- 参考スコア(独自算出の注目度): 0.09187159782788576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a very compact embedded CNN processor design based
on a modified logarithmic computing method using very low bit-width
representation. Our high-quality CNN processor can easily fit into edge
devices. For Yolov2, our processing circuit takes only 0.15 mm2 using TSMC 40
nm cell library. The key idea is to constrain the activation and weight values
of all layers uniformly to be within the range [-1, 1] and produce low
bit-width logarithmic representation. With the uniform representations, we
devise a unified, reusable CNN computing kernel and significantly reduce
computing resources. The proposed approach has been extensively evaluated on
many popular image classification CNN models (AlexNet, VGG16, and ResNet-18/34)
and object detection models (Yolov2). The hardware-implemented results show
that our design consumes only minimal computing and storage resources, yet
attains very high accuracy. The design is thoroughly verified on FPGAs, and the
SoC integration is underway with promising results. With extremely efficient
resource and energy usage, our design is excellent for edge computing purposes.
- Abstract(参考訳): 本稿では,超低ビット幅表現を用いた修正対数計算法に基づく,非常にコンパクトなcnnプロセッサ設計を提案する。
当社の高品質cnnプロセッサは、エッジデバイスに簡単にフィットできます。
Yolov2 では, TSMC 40 nm セルライブラリを使用すれば 0.15 mm2 しか処理できない。
鍵となる考え方は、すべての層の活性化と重量値を[-1, 1]の範囲内に均一に制限し、低ビット幅対数表現を生成することである。
統一された再利用可能なCNN計算カーネルを考案し,計算資源を大幅に削減する。
提案手法は,多数の画像分類CNNモデル (AlexNet, VGG16, ResNet-18/34) とオブジェクト検出モデル (Yolov2) で広く評価されている。
ハードウェアが実装した結果から、我々の設計は最小限の計算資源とストレージリソースしか消費しないが、精度は非常に高い。
設計はFPGA上で徹底的に検証されており、SoC統合は有望な結果と共に進行中である。
非常に効率的なリソースとエネルギーの使用により、我々の設計はエッジコンピューティングに最適です。
関連論文リスト
- Quality Scalable Quantization Methodology for Deep Learning on Edge [0.20718016474717196]
ディープラーニングアーキテクチャは重い計算を使い、計算エネルギーの大部分は畳み込みニューラルネットワークの畳み込み演算によって取り込まれる。
提案する研究は、ユビキタスコンピューティングデバイス上でエッジコンピューティングで機械学習技術を使用する場合、CNNのエネルギー消費とサイズを削減することである。
LeNetとConvNetsで実施された実験では、ゼロの6%まで増加し、メモリ節約量は82.4919%まで増加し、最先端の精度を維持した。
論文 参考訳(メタデータ) (2024-07-15T22:00:29Z) - Dynamic Semantic Compression for CNN Inference in Multi-access Edge
Computing: A Graph Reinforcement Learning-based Autoencoder [82.8833476520429]
部分オフロードにおける効果的な意味抽出と圧縮のための新しい意味圧縮手法であるオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
セマンティックエンコーダでは、CNNのチャネルアテンション機構に基づく特徴圧縮モジュールを導入し、最も情報性の高い特徴を選択して中間データを圧縮する。
セマンティックデコーダでは、受信した圧縮データから学習して中間データを再構築し、精度を向上させる軽量デコーダを設計する。
論文 参考訳(メタデータ) (2024-01-19T15:19:47Z) - RedBit: An End-to-End Flexible Framework for Evaluating the Accuracy of
Quantized CNNs [9.807687918954763]
畳み込みニューラルネットワーク(CNN)は、画像処理、分類、セグメンテーションタスクのためのディープニューラルネットワークの標準クラスとなっている。
RedBitは、透過的で使いやすいインターフェースを提供するオープンソースのフレームワークで、異なるアルゴリズムの有効性をネットワークの精度で評価する。
論文 参考訳(メタデータ) (2023-01-15T21:27:35Z) - Accurate, Low-latency, Efficient SAR Automatic Target Recognition on
FPGA [3.251765107970636]
合成開口レーダ(SAR)自動目標認識(ATR)はリモートセンシング画像認識の鍵となる技術である。
SAR ATRのための最先端の畳み込みニューラルネットワーク(CNN)は、エンハンハイ計算コストとエンハンラージメモリフットプリントに悩まされている。
本稿では,これらの問題に対処するため,FPGA 上でモデルアーキテクチャを包括的に設計する手法を提案する。
論文 参考訳(メタデータ) (2023-01-04T05:35:30Z) - Attention-based Feature Compression for CNN Inference Offloading in Edge
Computing [93.67044879636093]
本稿では,デバイスエッジ共振器におけるCNN推論の計算負荷について検討する。
エンドデバイスにおける効率的な特徴抽出のための新しいオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
実験の結果、AECNNは中間データを約4%の精度で256倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2022-11-24T18:10:01Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - Instant Neural Graphics Primitives with a Multiresolution Hash Encoding [67.33850633281803]
品質を犠牲にすることなく、より小さなネットワークを使用できる汎用的な新しい入力符号化を提案する。
小さなニューラルネットワークは、勾配降下によって値が最適化された訓練可能な特徴ベクトルの多分解能ハッシュテーブルによって拡張される。
数桁の高速化を実現し、高品質なニューラルネットワークプリミティブを数秒でトレーニングすることができる。
論文 参考訳(メタデータ) (2022-01-16T07:22:47Z) - Greedy Network Enlarging [53.319011626986004]
本稿では,計算のリアルタイム化に基づくグリーディ・ネットワーク拡大手法を提案する。
異なる段階の計算をステップバイステップで修正することで、拡張されたネットワークはMACの最適な割り当てと利用を提供する。
GhostNetへの我々の手法の適用により、最先端の80.9%と84.3%のImageNet Top-1アキュラシーを実現する。
論文 参考訳(メタデータ) (2021-07-31T08:36:30Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - RingCNN: Exploiting Algebraically-Sparse Ring Tensors for
Energy-Efficient CNN-Based Computational Imaging [22.19410414823529]
畳み込みニューラルネットワーク(cnns)は、計算イメージングの強力な技術として登場している。
CNNは、高解像度ビデオを生成するための集中的なコンピューティングパワーを要求し、高密度のディテールをレンダリングする際に従来のスパーシティ技術に反します。
本論文では、エネルギー効率の高いCNN加速のための基本的だが十分に研究されたアプローチ - 代数的スパーシティ -- を検討する。
論文 参考訳(メタデータ) (2021-04-19T05:26:11Z) - Binarization Methods for Motor-Imagery Brain-Computer Interface
Classification [18.722731794073756]
本稿では,実数値重みを2進数に変換する手法を提案する。
2次埋め込みの次元を調整することにより、4級MI(leq$1.27%以下)で、float16重みを持つモデルと比較してほぼ同じ精度を達成する。
提案手法は,CNNの完全連結層をバイポーラランダムプロジェクションを用いたバイナリ拡張メモリに置き換える。
論文 参考訳(メタデータ) (2020-10-14T12:28:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。