論文の概要: Low-Rank+Sparse Tensor Compression for Neural Networks
- arxiv url: http://arxiv.org/abs/2111.01697v1
- Date: Tue, 2 Nov 2021 15:55:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 16:32:27.818461
- Title: Low-Rank+Sparse Tensor Compression for Neural Networks
- Title(参考訳): ニューラルネットワークに対する低ランク+スパーステンソル圧縮
- Authors: Cole Hawkins, Haichuan Yang, Meng Li, Liangzhen Lai, Vikas Chandra
- Abstract要約: 本稿では,低ランクテンソル分解とスパースプルーニングを組み合わせることで,圧縮の粗さと微細構造を両立させることを提案する。
我々はSOTAアーキテクチャ(MobileNetv3、EfficientNet、Vision Transformer)の重みを圧縮し、この手法をスパースプルーニングとテンソル分解だけで比較する。
- 参考スコア(独自算出の注目度): 11.632913694957868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-rank tensor compression has been proposed as a promising approach to
reduce the memory and compute requirements of neural networks for their
deployment on edge devices. Tensor compression reduces the number of parameters
required to represent a neural network weight by assuming network weights
possess a coarse higher-order structure. This coarse structure assumption has
been applied to compress large neural networks such as VGG and ResNet. However
modern state-of-the-art neural networks for computer vision tasks (i.e.
MobileNet, EfficientNet) already assume a coarse factorized structure through
depthwise separable convolutions, making pure tensor decomposition a less
attractive approach. We propose to combine low-rank tensor decomposition with
sparse pruning in order to take advantage of both coarse and fine structure for
compression. We compress weights in SOTA architectures (MobileNetv3,
EfficientNet, Vision Transformer) and compare this approach to sparse pruning
and tensor decomposition alone.
- Abstract(参考訳): 低ランクテンソル圧縮は、エッジデバイスに展開するニューラルネットワークのメモリと計算要求を減らすための有望なアプローチとして提案されている。
テンソル圧縮は、ネットワーク重みが粗い高次構造を持つと仮定することで、ニューラルネットワーク重みを表すために必要なパラメータの数を減らす。
この粗い構造仮定は、VGGやResNetのような大きなニューラルネットワークの圧縮に応用されている。
しかし、コンピュータビジョンタスク(MobileNet、EfficientNet)のための最新の最先端のニューラルネットワークは、深く分離可能な畳み込みを通じて粗い分解構造を前提としており、純粋なテンソル分解はより魅力的ではない。
本稿では,低ランクテンソル分解とスパースプルーニングを組み合わせることで,圧縮の粗さと微細構造を両立させることを提案する。
我々はSOTAアーキテクチャ(MobileNetv3、EfficientNet、Vision Transformer)の重みを圧縮し、この手法をスパースプルーニングとテンソル分解だけで比較する。
関連論文リスト
- "Lossless" Compression of Deep Neural Networks: A High-dimensional
Neural Tangent Kernel Approach [49.744093838327615]
広帯域かつ完全接続型エンフディープニューラルネットに対する新しい圧縮手法を提案する。
提案手法の利点を支えるために, 合成データと実世界のデータの両方の実験を行った。
論文 参考訳(メタデータ) (2024-03-01T03:46:28Z) - Tensor Decomposition for Model Reduction in Neural Networks: A Review [13.96938227911258]
現代のニューラルネットワークはコンピュータビジョン(CV)と自然言語処理(NLP)の分野に革命をもたらした
複雑なCVタスクや画像分類、画像生成、機械翻訳といったNLPタスクの解決に広く用いられている。
本稿では,6つのテンソル分解法を概説し,モデルパラメータの圧縮能力について述べる。
論文 参考訳(メタデータ) (2023-04-26T13:12:00Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - A Theoretical Understanding of Neural Network Compression from Sparse
Linear Approximation [37.525277809849776]
モデル圧縮の目標は、同等のパフォーマンスを維持しながら、大きなニューラルネットワークのサイズを減らすことだ。
圧縮性を特徴付けるためにスペーサ感度$ell_q$-normを使用し、ネットワーク内の重みの柔らかいスペーサと圧縮度の関係を提供する。
また,ネットワーク上で各ニューロンを切断する適応アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-11T20:10:35Z) - Fast Conditional Network Compression Using Bayesian HyperNetworks [54.06346724244786]
条件付き圧縮問題を導入し、それに取り組むための高速なフレームワークを提案する。
問題は、トレーニング済みの大規模ニューラルネットワークをターゲットコンテキストに応じて最適な小さなネットワークに素早く圧縮する方法である。
提案手法は, ベースライン方式よりもはるかに小型の圧縮ネットワークを高速に生成できる。
論文 参考訳(メタデータ) (2022-05-13T00:28:35Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z) - Permute, Quantize, and Fine-tune: Efficient Compression of Neural
Networks [70.0243910593064]
ベクトル量子化の成功の鍵は、どのパラメータ群を一緒に圧縮するかを決定することである。
本稿では,隣り合う2つの層の重みを同じ関数を表現しながら不変にすることができることを観察する。
次に、レート歪み理論への接続を確立し、圧縮し易いネットワークとなる置換を探索する。
論文 参考訳(メタデータ) (2020-10-29T15:47:26Z) - Convolutional neural networks compression with low rank and sparse
tensor decompositions [0.0]
畳み込みニューラルネットワークは、様々なコンピュータビジョンタスクにおいて顕著な結果を示す。
現実のアプリケーションでは、エッジシステムやモバイルデバイス上で走るのに十分高速で軽量なモデルを開発することが不可欠である。
本研究では,テンソル分解に基づくニューラルネットワーク圧縮手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T13:53:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。