論文の概要: RingCNN: Exploiting Algebraically-Sparse Ring Tensors for
Energy-Efficient CNN-Based Computational Imaging
- arxiv url: http://arxiv.org/abs/2104.09056v1
- Date: Mon, 19 Apr 2021 05:26:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:30:24.219241
- Title: RingCNN: Exploiting Algebraically-Sparse Ring Tensors for
Energy-Efficient CNN-Based Computational Imaging
- Title(参考訳): RingCNN:エネルギー効率の良いCNNベースの計算イメージングのための代数的にスパースなリングテンソルの爆発
- Authors: Chao-Tsung Huang
- Abstract要約: 畳み込みニューラルネットワーク(cnns)は、計算イメージングの強力な技術として登場している。
CNNは、高解像度ビデオを生成するための集中的なコンピューティングパワーを要求し、高密度のディテールをレンダリングする際に従来のスパーシティ技術に反します。
本論文では、エネルギー効率の高いCNN加速のための基本的だが十分に研究されたアプローチ - 代数的スパーシティ -- を検討する。
- 参考スコア(独自算出の注目度): 22.19410414823529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the era of artificial intelligence, convolutional neural networks (CNNs)
are emerging as a powerful technique for computational imaging. They have shown
superior quality for reconstructing fine textures from badly-distorted images
and have potential to bring next-generation cameras and displays to our daily
life. However, CNNs demand intensive computing power for generating
high-resolution videos and defy conventional sparsity techniques when rendering
dense details. Therefore, finding new possibilities in regular sparsity is
crucial to enable large-scale deployment of CNN-based computational imaging.
In this paper, we consider a fundamental but yet well-explored approach --
algebraic sparsity -- for energy-efficient CNN acceleration. We propose to
build CNN models based on ring algebra that defines multiplication, addition,
and non-linearity for n-tuples properly. Then the essential sparsity will
immediately follow, e.g. n-times reduction for the number of real-valued
weights. We define and unify several variants of ring algebras into a modeling
framework, RingCNN, and make comparisons in terms of image quality and hardware
complexity. On top of that, we further devise a novel ring algebra which
minimizes complexity with component-wise product and achieves the best quality
using directional ReLU. Finally, we implement an accelerator, eRingCNN, in two
settings, n=2 and 4 (50% and 75% sparsity), with 40 nm technology to support
advanced denoising and super-resolution at up to 4K UHD 30 fps. Layout results
show that they can deliver equivalent 41 TOPS using 3.76 W and 2.22 W,
respectively. Compared to the real-valued counterpart, our ring convolution
engines for n=2 achieve 2.00x energy efficiency and 2.08x area efficiency with
similar or even better image quality. With n=4, the efficiency gains of energy
and area are further increased to 3.84x and 3.77x with 0.11 dB drop of PSNR.
- Abstract(参考訳): 人工知能の時代には、畳み込みニューラルネットワーク(CNN)が計算画像の強力な技術として出現している。
彼らは、劣化した画像から細かいテクスチャを再構築する上で優れた品質を示しており、次世代カメラやディスプレイを私たちの日常生活にもたらす可能性がある。
しかし、CNNは高精細度の細部をレンダリングする際に、高精細度ビデオの生成と従来の疎度テクニックの欠如に強い計算力を要求する。
したがって、CNNベースの大規模画像化を実現するためには、通常の空間で新たな可能性を見つけることが不可欠である。
本稿では,エネルギー効率のよいCNN加速のための基本的だが十分に探索されたアプローチである代数的空間性を考える。
我々は、n-タプルの乗法、加法、非線形性を適切に定義する環代数に基づくcnnモデルを構築することを提案する。
すると、本質的な空間がすぐに続く。
n-times reduction for the number of real-valued weights.
我々は、リング代数のいくつかの変種をモデリングフレームワークringcnnとして定義し、画像品質とハードウェアの複雑さの観点から比較する。
さらに, 成分的積との複雑性を最小化し, 方向性ReLUによる最適品質を実現する新しい環代数を考案する。
最後に、eRingCNNというアクセラレータを、n=2と4(50%と75%の間隔)の2つの設定で実装し、40nm技術で4K UHD 30 fpsの高分解能と高分解能をサポートする。
レイアウトの結果、それぞれ3.76Wと2.22Wで同等の41TOPSを供給できることが示されている。
実数値と比較すると, n=2のリング畳み込みエンジンは, 類似あるいはそれ以上の画質で, エネルギー効率2.00x, 面積効率2.08xを実現している。
n=4ではエネルギーと面積の効率がさらに3.84xと3.77xに増加し、PSNRは0.11dB低下する。
関連論文リスト
- Quality Scalable Quantization Methodology for Deep Learning on Edge [0.20718016474717196]
ディープラーニングアーキテクチャは重い計算を使い、計算エネルギーの大部分は畳み込みニューラルネットワークの畳み込み演算によって取り込まれる。
提案する研究は、ユビキタスコンピューティングデバイス上でエッジコンピューティングで機械学習技術を使用する場合、CNNのエネルギー消費とサイズを削減することである。
LeNetとConvNetsで実施された実験では、ゼロの6%まで増加し、メモリ節約量は82.4919%まで増加し、最先端の精度を維持した。
論文 参考訳(メタデータ) (2024-07-15T22:00:29Z) - OA-CNNs: Omni-Adaptive Sparse CNNs for 3D Semantic Segmentation [70.17681136234202]
設計上の違いを再検討し、スパースCNNが達成できることの限界をテストする。
本稿では,このギャップを埋めるために,適応受容場(親和性)と適応関係という2つの重要な要素を提案する。
この調査により、軽量モジュールを統合するネットワークのファミリーであるOmni-Adaptive 3D CNN(OA-CNN)が開発された。
論文 参考訳(メタデータ) (2024-03-21T14:06:38Z) - A Converting Autoencoder Toward Low-latency and Energy-efficient DNN
Inference at the Edge [4.11949030493552]
エッジデバイスに適した低レイテンシかつエネルギー効率のDeep Neural Network (DNN) 推論フレームワークであるCBNetを提案する。
変換」オートエンコーダを使用して、ハードイメージを簡単なものに効率よく変換する。
CBNetは推論遅延の4.8倍のスピードアップと79%のエネルギー消費の削減を実現している。
論文 参考訳(メタデータ) (2024-03-11T08:13:42Z) - An automated approach for improving the inference latency and energy
efficiency of pretrained CNNs by removing irrelevant pixels with focused
convolutions [0.8706730566331037]
本稿では,事前学習したCNNを再学習せずによりエネルギー効率良くするための,新しい自動化手法を提案する。
修正された集中畳み込み操作は、様々なトレーニング済みCNNにおいて、推論遅延(25%まで)とエネルギーコスト(最大22%まで)を節約します。
論文 参考訳(メタデータ) (2023-10-11T18:07:37Z) - Scalable Neural Video Representations with Learnable Positional Features [73.51591757726493]
我々は,学習可能な位置特徴(NVP)を用いて,映像を潜時符号として効果的に再生するニューラル表現の訓練方法を示す。
一般的なUVGベンチマークにおけるNVPの優位性を実証し,先行技術と比較して,NVPは2倍の速度(5分以内)で走行するだけでなく,符号化品質も34.07rightarrow$34.57(PSNR測定値で測定)に上回っている。
論文 参考訳(メタデータ) (2022-10-13T08:15:08Z) - Image Super-resolution with An Enhanced Group Convolutional Neural
Network [102.2483249598621]
学習能力の強いCNNは、超解像問題を解くために広く選択されている。
浅層構造を持つ超解像群CNN(ESRGCNN)を提案する。
ESRGCNNは、SISRの性能、複雑さ、実行速度、画質評価およびSISRの視覚効果の観点から、最先端技術を上回っていると報告されている。
論文 参考訳(メタデータ) (2022-05-29T00:34:25Z) - Weightless Neural Networks for Efficient Edge Inference [1.7882696915798877]
ウェイトレスニューラルネットワーク(WNN)は、テーブルルックアップを使用して推論を行う機械学習モデルのクラスである。
本稿では,WNN アーキテクチャ BTHOWeN を提案する。
BTHOWeNは、より優れたレイテンシとエネルギー効率を提供することで、大規模で成長するエッジコンピューティングセクターをターゲットにしている。
論文 参考訳(メタデータ) (2022-03-03T01:46:05Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Content-Aware Convolutional Neural Networks [98.97634685964819]
畳み込みニューラルネットワーク(CNN)は、畳み込み層の強力な特徴学習能力によって大きな成功を収めている。
本研究では,スムーズなウィンドウを自動的に検出し,元の大規模カーネルを置き換えるために1x1畳み込みカーネルを適用するContent-aware Convolution (CAC)を提案する。
論文 参考訳(メタデータ) (2021-06-30T03:54:35Z) - A Very Compact Embedded CNN Processor Design Based on Logarithmic
Computing [0.09187159782788576]
私たちの高品質CNNプロセッサは、エッジデバイスに簡単に適合します。
Yolov2 では, TSMC 40 nm セルライブラリを使用すれば 0.15 mm2 しか処理できない。
論文 参考訳(メタデータ) (2020-10-13T23:48:36Z) - SmartExchange: Trading Higher-cost Memory Storage/Access for Lower-cost
Computation [97.78417228445883]
We present SmartExchange, a algorithm- hardware co-design framework for energy- efficient inference of Deep Neural Network (DNNs)。
そこで我々は,非零要素がすべてパワー・オブ・ツーである小さな基底行列と大きなスパース係数行列の積として,各重み行列を格納できる,特別に好ましいDNN重み構造を強制する新しいアルゴリズムを開発した。
さらに、SmartExchange強化重量をフル活用し、エネルギー効率と遅延性能の両方を改善するための専用のアクセラレータを設計する。
論文 参考訳(メタデータ) (2020-05-07T12:12:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。