論文の概要: Convolutional neural networks compression with low rank and sparse
tensor decompositions
- arxiv url: http://arxiv.org/abs/2006.06443v1
- Date: Thu, 11 Jun 2020 13:53:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 12:57:38.200505
- Title: Convolutional neural networks compression with low rank and sparse
tensor decompositions
- Title(参考訳): 低階とスパーステンソル分解による畳み込みニューラルネットワーク圧縮
- Authors: Pavel Kaloshin
- Abstract要約: 畳み込みニューラルネットワークは、様々なコンピュータビジョンタスクにおいて顕著な結果を示す。
現実のアプリケーションでは、エッジシステムやモバイルデバイス上で走るのに十分高速で軽量なモデルを開発することが不可欠である。
本研究では,テンソル分解に基づくニューラルネットワーク圧縮手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks show outstanding results in a variety of
computer vision tasks. However, a neural network architecture design usually
faces a trade-off between model performance and computational/memory
complexity. For some real-world applications, it is crucial to develop models,
which can be fast and light enough to run on edge systems and mobile devices.
However, many modern architectures that demonstrate good performance don't
satisfy inference time and storage limitation requirements. Thus, arises a
problem of neural network compression to obtain a smaller and faster model,
which is on par with the initial one.
In this work, we consider a neural network compression method based on tensor
decompositions. Namely, we propose to approximate the convolutional layer
weight with a tensor, which can be represented as a sum of low-rank and sparse
components. The motivation for such approximation is based on the assumption
that low-rank and sparse terms allow eliminating two different types of
redundancy and thus yield a better compression rate. An efficient CPU
implementation for the proposed method has been developed. Our algorithm has
demonstrated up to 3.5x CPU layer speedup and 11x layer size reduction when
compressing Resnet50 architecture for the image classification task.
- Abstract(参考訳): 畳み込みニューラルネットワークは、様々なコンピュータビジョンタスクにおいて優れた結果を示す。
しかしながら、ニューラルネットワークアーキテクチャ設計は通常、モデルパフォーマンスと計算/メモリの複雑さの間のトレードオフに直面します。
一部の実世界のアプリケーションでは、エッジシステムやモバイルデバイスで動作可能な高速で軽量なモデルを開発することが不可欠である。
しかし、優れたパフォーマンスを示す多くのモダンなアーキテクチャは、推論時間とストレージ制限要件を満たしていない。
このようにして、ニューラルネットワーク圧縮の問題を発生させ、初期モデルと同等の、より小さくより高速なモデルを得る。
本研究では,テンソル分解に基づくニューラルネットワーク圧縮法について考察する。
具体的には,低ランク成分とスパース成分の和として表現できるテンソルを用いた畳み込み層重みを近似する。
このような近似の動機は、低ランク項とスパース項が2種類の冗長性を排除し、より良い圧縮率をもたらすという仮定に基づいている。
提案手法の効率的なCPU実装を開発した。
画像分類タスクでresnet50アーキテクチャを圧縮する場合、アルゴリズムは最大3.5倍のcpu層高速化と11倍の層サイズ削減を実証した。
関連論文リスト
- Tiled Bit Networks: Sub-Bit Neural Network Compression Through Reuse of Learnable Binary Vectors [4.95475852994362]
本稿では,バイナリ重み付きニューラルネットワークのサブビット圧縮を実現するために,ビット列を持つタイル型ニューラルネットワーク層に対する新しい量子化方式を提案する。
私たちは完全に接続された層と畳み込み層の両方にアプローチを採用しています。
論文 参考訳(メタデータ) (2024-07-16T15:55:38Z) - A priori compression of convolutional neural networks for wave
simulators [0.0]
現在のニューラルネットワークの設計には数百万のパラメータが含まれており、メモリに制限のあるデバイスにそのような複雑なモデルをインストールすることは困難である。
本稿では,ニューラルネットワークのトレーニングに先立って,畳み込み層を圧縮したテンソル形式,先行処理を提案する。
提案手法は,訓練可能なパラメータが少なく,メモリフットプリントも少ない古典的畳み込み層として同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-04-11T04:18:59Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - A Theoretical Understanding of Neural Network Compression from Sparse
Linear Approximation [37.525277809849776]
モデル圧縮の目標は、同等のパフォーマンスを維持しながら、大きなニューラルネットワークのサイズを減らすことだ。
圧縮性を特徴付けるためにスペーサ感度$ell_q$-normを使用し、ネットワーク内の重みの柔らかいスペーサと圧縮度の関係を提供する。
また,ネットワーク上で各ニューロンを切断する適応アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-11T20:10:35Z) - Low-Rank+Sparse Tensor Compression for Neural Networks [11.632913694957868]
本稿では,低ランクテンソル分解とスパースプルーニングを組み合わせることで,圧縮の粗さと微細構造を両立させることを提案する。
我々はSOTAアーキテクチャ(MobileNetv3、EfficientNet、Vision Transformer)の重みを圧縮し、この手法をスパースプルーニングとテンソル分解だけで比較する。
論文 参考訳(メタデータ) (2021-11-02T15:55:07Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Content-Aware Convolutional Neural Networks [98.97634685964819]
畳み込みニューラルネットワーク(CNN)は、畳み込み層の強力な特徴学習能力によって大きな成功を収めている。
本研究では,スムーズなウィンドウを自動的に検出し,元の大規模カーネルを置き換えるために1x1畳み込みカーネルを適用するContent-aware Convolution (CAC)を提案する。
論文 参考訳(メタデータ) (2021-06-30T03:54:35Z) - Permute, Quantize, and Fine-tune: Efficient Compression of Neural
Networks [70.0243910593064]
ベクトル量子化の成功の鍵は、どのパラメータ群を一緒に圧縮するかを決定することである。
本稿では,隣り合う2つの層の重みを同じ関数を表現しながら不変にすることができることを観察する。
次に、レート歪み理論への接続を確立し、圧縮し易いネットワークとなる置換を探索する。
論文 参考訳(メタデータ) (2020-10-29T15:47:26Z) - Compression strategies and space-conscious representations for deep
neural networks [0.3670422696827526]
近年のディープラーニングの進歩により、いくつかの実世界のアプリケーションで最先端のパフォーマンスを備えた強力な畳み込みニューラルネットワーク(CNN)が利用可能になった。
CNNには数百万のパラメータがあり、リソース制限のあるプラットフォームではデプロイできない。
本稿では,重み付けと量子化によるCNNの損失圧縮の影響について検討する。
論文 参考訳(メタデータ) (2020-07-15T19:41:19Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。