論文の概要: Computational optimization of convolutional neural networks using
separated filters architecture
- arxiv url: http://arxiv.org/abs/2002.07754v1
- Date: Tue, 18 Feb 2020 17:42:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 20:37:51.998564
- Title: Computational optimization of convolutional neural networks using
separated filters architecture
- Title(参考訳): 分離フィルタを用いた畳み込みニューラルネットワークの計算最適化
- Authors: Elena Limonova and Alexander Sheshkus and Dmitry Nikolaev
- Abstract要約: 我々は、計算複雑性を低減し、ニューラルネットワーク処理を高速化する畳み込みニューラルネットワーク変換を考える。
畳み込みニューラルネットワーク(CNN)の使用は、計算的に要求が多すぎるにもかかわらず、画像認識の標準的なアプローチである。
- 参考スコア(独自算出の注目度): 69.73393478582027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper considers a convolutional neural network transformation that
reduces computation complexity and thus speedups neural network processing.
Usage of convolutional neural networks (CNN) is the standard approach to image
recognition despite the fact they can be too computationally demanding, for
example for recognition on mobile platforms or in embedded systems. In this
paper we propose CNN structure transformation which expresses 2D convolution
filters as a linear combination of separable filters. It allows to obtain
separated convolutional filters by standard training algorithms. We study the
computation efficiency of this structure transformation and suggest fast
implementation easily handled by CPU or GPU. We demonstrate that CNNs designed
for letter and digit recognition of proposed structure show 15% speedup without
accuracy loss in industrial image recognition system. In conclusion, we discuss
the question of possible accuracy decrease and the application of proposed
transformation to different recognition problems. convolutional neural
networks, computational optimization, separable filters, complexity reduction.
- Abstract(参考訳): 本稿では,計算複雑性を低減し,ニューラルネットワーク処理を高速化する畳み込みニューラルネットワーク変換について考察する。
畳み込みニューラルネットワーク(convolutional neural networks, cnn)は,モバイルプラットフォームや組込みシステムでの認識など,計算能力の要求が過剰であるにも関わらず,画像認識に対する標準的なアプローチである。
本稿では,2次元畳み込みフィルタを分離フィルタの線形結合として表現するcnn構造変換を提案する。
標準訓練アルゴリズムによって分離された畳み込みフィルタを得ることができる。
この構造変換の計算効率について検討し、CPUやGPUで容易に処理できる高速実装を提案する。
産業用画像認識システムにおいて,文字と数字の認識のために設計されたCNNは,精度の低下のない15%の高速化を示す。
結論として,予測精度の低下の問題と,異なる認識問題への変換提案の適用について論じる。
畳み込みニューラルネットワーク、計算最適化、分離フィルタ、複雑性低減。
関連論文リスト
- Deep Convolutional Tables: Deep Learning without Convolutions [12.069186324544347]
本稿では,ドット生成ニューロンを使用しず,代わりに投票表の階層に依存するディープネットワークの新たな定式化を提案する。
ディープCTネットワークは、類似アーキテクチャのCNNに匹敵する精度を持つことが実験的に示されている。
論文 参考訳(メタデータ) (2023-04-23T17:49:21Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Convolutional Analysis Operator Learning by End-To-End Training of
Iterative Neural Networks [3.6280929178575994]
本稿では、反復ニューラルネットワークのエンドツーエンドトレーニングにより、畳み込みスペーシングフィルタを効率的に学習する方法を示す。
我々は,非カルテシアン2次元心血管MRI例に対するアプローチを検証し,得られたフィルタが,デカップリングプレトレーニングにより得られたものよりも,対応する再構成アルゴリズムに適していることを示した。
論文 参考訳(メタデータ) (2022-03-04T07:32:16Z) - Content-Aware Convolutional Neural Networks [98.97634685964819]
畳み込みニューラルネットワーク(CNN)は、畳み込み層の強力な特徴学習能力によって大きな成功を収めている。
本研究では,スムーズなウィンドウを自動的に検出し,元の大規模カーネルを置き換えるために1x1畳み込みカーネルを適用するContent-aware Convolution (CAC)を提案する。
論文 参考訳(メタデータ) (2021-06-30T03:54:35Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Improved CNN-based Learning of Interpolation Filters for Low-Complexity
Inter Prediction in Video Coding [5.46121027847413]
本稿では,ニューラルネットワークを用いた新しい予測手法を提案する。
新たなトレーニングフレームワークにより、各ネットワークブランチは特定の分数シフトに類似することができる。
Versatile Video Coding (VVC)テストモデルで実装されると、0.77%、1.27%、および2.25%のBDレートの節約が達成される。
論文 参考訳(メタデータ) (2021-06-16T16:48:01Z) - Implementing a foveal-pit inspired filter in a Spiking Convolutional
Neural Network: a preliminary study [0.0]
我々は,網膜卵管刺激によるガウスフィルタとランク順符号化の差異を取り入れたスポーキング畳み込みニューラルネットワーク(SCNN)を提示した。
このモデルは、Nengoライブラリーで実装されているように、スパイキングニューロンで動作するように適応されたバックプロパゲーションアルゴリズムの変種を用いて訓練される。
ネットワークは最大90%の精度で達成され、損失はクロスエントロピー関数を用いて計算される。
論文 参考訳(メタデータ) (2021-05-29T15:28:30Z) - FILTRA: Rethinking Steerable CNN by Filter Transform [59.412570807426135]
操舵可能なCNNの問題は群表現論の側面から研究されている。
フィルタ変換によって構築されたカーネルは群表現論でも解釈可能であることを示す。
この解釈は、ステアブルCNN理論のパズルを完成させ、ステアブル畳み込み演算子を実装するための、新しく簡単なアプローチを提供する。
論文 参考訳(メタデータ) (2021-05-25T03:32:34Z) - Knowledge Distillation Circumvents Nonlinearity for Optical
Convolutional Neural Networks [4.683612295430957]
本稿では、スペクトルCNN線形カウンタ部(SCLC)ネットワークアーキテクチャを提案し、非線形性の必要性を回避するための知識蒸留(KD)アプローチを開発する。
KDアプローチは、CNNの標準線形バージョンを簡単に上回るパフォーマンスを達成し、非線形ネットワークのパフォーマンスに近づくことができることを示しています。
論文 参考訳(メタデータ) (2021-02-26T06:35:34Z) - Unrolling of Deep Graph Total Variation for Image Denoising [106.93258903150702]
本稿では,従来のグラフ信号フィルタリングと深い特徴学習を併用して,競合するハイブリッド設計を提案する。
解釈可能な低パスグラフフィルタを用い、最先端のDL復調方式DnCNNよりも80%少ないネットワークパラメータを用いる。
論文 参考訳(メタデータ) (2020-10-21T20:04:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。