論文の概要: Nonlinear Tensor Ring Network
- arxiv url: http://arxiv.org/abs/2111.06532v1
- Date: Fri, 12 Nov 2021 02:02:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-15 13:26:27.575432
- Title: Nonlinear Tensor Ring Network
- Title(参考訳): 非線形テンソルリングネットワーク
- Authors: Xiao Peng Li, Qi Liu and Hing Cheung So
- Abstract要約: 最先端のディープニューラルネットワーク(DNN)は、様々な現実世界のアプリケーションに広く適用されており、認知問題に対して大きなパフォーマンスを実現している。
冗長モデルをコンパクトなモデルに変換することで、圧縮技術はストレージとメモリ消費を減らすための実用的な解決策であるように見える。
本稿では,完全連結層と畳み込み層の両方を圧縮した非線形テンソルリングネットワーク(NTRN)を開発する。
- 参考スコア(独自算出の注目度): 39.89070144585793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The state-of-the-art deep neural networks (DNNs) have been widely applied for
various real-world applications, and achieved significant performance for
cognitive problems. However, the increment of DNNs' width and depth in
architecture results in a huge amount of parameters to challenge the storage
and memory cost, limiting to the usage of DNNs on resource-constrained
platforms, such as portable devices. By converting redundant models into
compact ones, compression technique appears to be a practical solution to
reducing the storage and memory consumption. In this paper, we develop a
nonlinear tensor ring network (NTRN) in which both fullyconnected and
convolutional layers are compressed via tensor ring decomposition. Furthermore,
to mitigate the accuracy loss caused by compression, a nonlinear activation
function is embedded into the tensor contraction and convolution operations
inside the compressed layer. Experimental results demonstrate the effectiveness
and superiority of the proposed NTRN for image classification using two basic
neural networks, LeNet-5 and VGG-11 on three datasets, viz. MNIST, Fashion
MNIST and Cifar-10.
- Abstract(参考訳): 最先端のディープニューラルネットワーク(DNN)は、さまざまな現実世界のアプリケーションに広く適用されており、認知問題に対して大きなパフォーマンスを実現している。
しかし、DNNの幅とアーキテクチャの深さの増大は、ストレージとメモリコストに挑戦する膨大なパラメータをもたらし、ポータブルデバイスなどのリソース制約のあるプラットフォームでのDNNの使用を制限する。
冗長モデルをコンパクトなモデルに変換することで、圧縮技術はストレージとメモリ消費を減らすための実用的な解決策となる。
本稿では,完全連結層と畳み込み層がテンソル環分解によって圧縮される非線形テンソルリングネットワーク(ntrn)を開発した。
さらに、圧縮による精度損失を軽減するために、圧縮層内のテンソル収縮及び畳み込み操作に非線形活性化関数を埋め込む。
実験結果は,2つの基本ニューラルネットワーク,lenet-5とvgg-11を用いた画像分類におけるntrnの有効性と優位性を示す。
MNIST、Fashion MNIST、Cifar-10。
関連論文リスト
- Reduced storage direct tensor ring decomposition for convolutional neural networks compression [0.0]
記憶率の低下した直接テンソルリング分解(RSDTR)に基づく新しい低ランクCNN圧縮法を提案する。
提案手法は, 円モードの順応性が高く, パラメータが大きいこと, FLOPS圧縮率が高いことが特徴である。
CIFAR-10とImageNetデータセットで実施された実験は、他の最先端のCNN圧縮アプローチと比較して、RDDTRの効率を明らかに示している。
論文 参考訳(メタデータ) (2024-05-17T14:16:40Z) - "Lossless" Compression of Deep Neural Networks: A High-dimensional
Neural Tangent Kernel Approach [49.744093838327615]
広帯域かつ完全接続型エンフディープニューラルネットに対する新しい圧縮手法を提案する。
提案手法の利点を支えるために, 合成データと実世界のデータの両方の実験を行った。
論文 参考訳(メタデータ) (2024-03-01T03:46:28Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Convolutional Neural Network Compression through Generalized Kronecker
Product Decomposition [2.4240083226965115]
我々は、クロネッカー積分解を一般化して層を圧縮し、多次元に応用し、一般化クロネッカー積分解(GKPD)へと導く。
当社のアプローチでは,任意の畳み込みレイヤのドロップイン代替として使用可能なプラグイン・アンド・プレイモジュールが生成される。
論文 参考訳(メタデータ) (2021-09-29T20:45:08Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Lightweight Compression of Intermediate Neural Network Features for
Collaborative Intelligence [32.03465747357384]
協調インテリジェンスアプリケーションでは、ディープニューラルネットワーク(DNN)の一部が携帯電話やエッジデバイスなどの軽量デバイスにデプロイされます。
本稿では,分割DNNの中間層によって出力される特徴を量子化し圧縮する,新しい軽量圧縮技術を提案する。
論文 参考訳(メタデータ) (2021-05-15T00:10:12Z) - ActNN: Reducing Training Memory Footprint via 2-Bit Activation
Compressed Training [68.63354877166756]
ActNNは、バック伝搬のためのランダムに量子化されたアクティベーションを格納するメモリ効率のトレーニングフレームワークである。
ActNNはアクティベーションのメモリフットプリントを12倍に削減し、6.6倍から14倍のバッチサイズでトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-29T05:50:54Z) - Block-term Tensor Neural Networks [29.442026567710435]
ブロック終端テンソル層(BT層)は,CNNやRNNなどのニューラルネットワークモデルに容易に適用可能であることを示す。
CNNとRNNのBT層は、元のDNNの表現力を維持したり改善したりしながら、パラメータ数に対して非常に大きな圧縮比を達成することができる。
論文 参考訳(メタデータ) (2020-10-10T09:58:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。