論文の概要: A Reconfigurable Winograd CNN Accelerator with Nesting Decomposition
Algorithm for Computing Convolution with Large Filters
- arxiv url: http://arxiv.org/abs/2102.13272v1
- Date: Fri, 26 Feb 2021 02:42:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-01 14:05:20.575157
- Title: A Reconfigurable Winograd CNN Accelerator with Nesting Decomposition
Algorithm for Computing Convolution with Large Filters
- Title(参考訳): 大きなフィルタによる畳み込み計算のためのネスティング分解アルゴリズムを用いた再構成可能なWinograd CNN加速器
- Authors: Jingbo Jiang, Xizi Chen, Chi-Ying Tsui
- Abstract要約: ウィノグラード変換は畳み込みの乗算数を減らすのに役立つが、畳み込みフィルタのサイズが大きくなると数値不安定になる。
本研究では,大きなフィルタを3x3タイルの列に繰り返し分解するネストしたWinogradアルゴリズムを提案する。
最新のOLA-Winogradアルゴリズムと比較して、提案アルゴリズムは5x5から9x9の畳み込みを計算するための乗算を1.41から3.29倍に削減する。
- 参考スコア(独自算出の注目度): 4.01192879023746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent literature found that convolutional neural networks (CNN) with large
filters perform well in some applications such as image semantic segmentation.
Winograd transformation helps to reduce the number of multiplications in a
convolution but suffers from numerical instability when the convolution filter
size gets large. This work proposes a nested Winograd algorithm to iteratively
decompose a large filter into a sequence of 3x3 tiles which can then be
accelerated with a 3x3 Winograd algorithm. Compared with the state-of-art
OLA-Winograd algorithm, the proposed algorithm reduces the multiplications by
1.41 to 3.29 times for computing 5x5 to 9x9 convolutions.
- Abstract(参考訳): 近年の文献では、画像セマンティックセグメンテーションなどのいくつかの応用において、大きなフィルタを持つ畳み込みニューラルネットワーク(CNN)がよく機能している。
ウィノグラード変換は畳み込みの乗算数を減らすのに役立つが、畳み込みフィルタのサイズが大きくなると数値不安定になる。
本研究は,3x3 タイルの列に大規模フィルタを繰り返し分解し,それを3x3 Winograd アルゴリズムで高速化するネスト付きウィノグラードアルゴリズムを提案する。
最新のOLA-Winogradアルゴリズムと比較して、提案アルゴリズムは5x5から9x9の畳み込みを計算するための乗算を1.41から3.29倍に削減する。
関連論文リスト
- ParCNetV2: Oversized Kernel with Enhanced Attention [60.141606180434195]
我々はParCNetV2という畳み込みニューラルネットワークアーキテクチャを導入する。
位置認識型円形畳み込み(ParCNet)を拡張し、大きめの畳み込みを施し、分岐ゲートユニットを通して注意を向ける。
提案手法は、CNNとトランスフォーマーをハイブリッド化するニューラルネットワークと同様に、他の純粋な畳み込みニューラルネットワークよりも優れている。
論文 参考訳(メタデータ) (2022-11-14T07:22:55Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Going Further With Winograd Convolutions: Tap-Wise Quantization for
Efficient Inference on 4x4 Tile [7.705762754955851]
ウィノグラード畳み込みアルゴリズムは、標準アルゴリズムに比べてMACが少ない畳み込みを計算する。
本稿では,大きなタイルを使用する際の数値問題を克服する,タップワイズ量子化手法を提案する。
このようなカスタムモジュールを産業レベルのプログラム可能なDSAに統合する方法を示す。
論文 参考訳(メタデータ) (2022-09-26T19:29:51Z) - Batch-efficient EigenDecomposition for Small and Medium Matrices [65.67315418971688]
EigenDecomposition (ED)は多くのコンピュータビジョンアルゴリズムとアプリケーションの中心にある。
本稿では,コンピュータビジョンの応用シナリオに特化したQRベースのED手法を提案する。
論文 参考訳(メタデータ) (2022-07-09T09:14:12Z) - Fast and High-Quality Image Denoising via Malleable Convolutions [72.18723834537494]
動的畳み込みの効率的な変種として、Malleable Convolution (MalleConv)を提案する。
以前の作品とは異なり、MalleConvは入力から空間的に変化するカーネルのより小さなセットを生成する。
また、MalleNetという造語であるMalleConvを用いて、効率的なdenoisingネットワークを構築した。
論文 参考訳(メタデータ) (2022-01-02T18:35:20Z) - Fast Convolution based on Winograd Minimum Filtering: Introduction and
Development [5.192451499848539]
畳み込み演算子は畳み込みニューラルネットワークの基本的な構成要素である。
近年、FFTやWinogradなどの高速な畳み込みアルゴリズムが提案されている。
本稿では,アルゴリズム拡張,アルゴリズム最適化,実装,アプリケーションという3つの側面から,Winograd畳み込みの開発を要約する。
論文 参考訳(メタデータ) (2021-11-01T14:39:56Z) - Content-Aware Convolutional Neural Networks [98.97634685964819]
畳み込みニューラルネットワーク(CNN)は、畳み込み層の強力な特徴学習能力によって大きな成功を収めている。
本研究では,スムーズなウィンドウを自動的に検出し,元の大規模カーネルを置き換えるために1x1畳み込みカーネルを適用するContent-aware Convolution (CAC)を提案する。
論文 参考訳(メタデータ) (2021-06-30T03:54:35Z) - Winograd Algorithm for AdderNet [54.93995545896655]
Adder Neural Network(AdderNet)は、畳み込みにおける元の巨大な乗算を加算によって置き換える新しい種類のディープモデルである。
本稿では,コンボリューションの高速化と計算コストの削減を目的とした高速アルゴリズムであるWinogradアルゴリズムについて検討する。
論文 参考訳(メタデータ) (2021-05-12T09:13:34Z) - Efficient Residue Number System Based Winograd Convolution [15.210764522845416]
Winogradアルゴリズムは、浮動小数点で表現される重みとアクティベーションを持つ畳み込みニューラルネットワーク(CNN)の計算複雑性を低減することができる。
我々の研究はWinogradアルゴリズムをResidue Number System (RNS)に拡張した。
最小の複雑性畳み込みは、大きな変換タイル上で正確に計算される。
論文 参考訳(メタデータ) (2020-07-23T19:07:06Z) - LANCE: Efficient Low-Precision Quantized Winograd Convolution for Neural
Networks Based on Graphics Processing Units [6.110973485878557]
我々は,高速畳み込みと量子化の利点を組み合わせた,LANCEと呼ばれる高速な低精度量子化ウィノグラード畳み込みアルゴリズムを提案する。
8ビットの量子化Winograd畳み込みは、精度の低下を伴う完全精度畳み込みよりも最大2.40倍の性能向上を示す。
論文 参考訳(メタデータ) (2020-03-19T09:46:50Z) - DWM: A Decomposable Winograd Method for Convolution Acceleration [29.312042061351782]
Winogradの最小フィルタリングアルゴリズムは畳み込みニューラルネットワーク(CNN)において、高速な処理のための乗算数を減らすために広く使われている。
3x3より大きいカーネルサイズのFLOPと数値精度の問題に悩まされ、1より大きいストライドとの畳み込みに失敗する。
本稿では,従来のWinogradの最小フィルタリングアルゴリズムを広義かつ汎用的な畳み込みに制限することで,DWM(Decomposable Winograd Method)を提案する。
論文 参考訳(メタデータ) (2020-02-03T03:42:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。