論文の概要: Data-Independent Structured Pruning of Neural Networks via Coresets
- arxiv url: http://arxiv.org/abs/2008.08316v1
- Date: Wed, 19 Aug 2020 08:03:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 08:41:44.193787
- Title: Data-Independent Structured Pruning of Neural Networks via Coresets
- Title(参考訳): コアセットによるニューラルネットワークの非依存構造解析
- Authors: Ben Mussay, Daniel Feldman, Samson Zhou, Vladimir Braverman, Margarita
Osadchy
- Abstract要約: 本稿では, 圧縮率と将来の試験試料の近似誤差とのトレードオフが証明可能な最初の効率的な構造化プルーニングアルゴリズムを提案する。
これまでの作業とは異なり、コアセットはデータ独立であり、逆数を含む任意の入力$xin mathbbRd$に対して関数の精度を確実に保証します。
- 参考スコア(独自算出の注目度): 21.436706159840018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model compression is crucial for deployment of neural networks on devices
with limited computational and memory resources. Many different methods show
comparable accuracy of the compressed model and similar compression rates.
However, the majority of the compression methods are based on heuristics and
offer no worst-case guarantees on the trade-off between the compression rate
and the approximation error for an arbitrarily new sample. We propose the first
efficient structured pruning algorithm with a provable trade-off between its
compression rate and the approximation error for any future test sample. Our
method is based on the coreset framework and it approximates the output of a
layer of neurons/filters by a coreset of neurons/filters in the previous layer
and discards the rest. We apply this framework in a layer-by-layer fashion from
the bottom to the top. Unlike previous works, our coreset is data independent,
meaning that it provably guarantees the accuracy of the function for any input
$x\in \mathbb{R}^d$, including an adversarial one.
- Abstract(参考訳): モデル圧縮は、計算資源とメモリ資源が限られているデバイスにニューラルネットワークを配置するために重要である。
多くの異なる方法が圧縮モデルと類似の圧縮速度の同等の精度を示している。
しかし、ほとんどの圧縮方法はヒューリスティックスに基づいており、任意に新しいサンプルの圧縮率と近似誤差とのトレードオフに関する最悪の保証を提供していない。
本稿では, 圧縮率と将来の試験試料の近似誤差とのトレードオフが証明可能な最初の効率的な構造化プルーニングアルゴリズムを提案する。
本手法はcoresetフレームワークに基づき,前層におけるニューロン/フィルタのコアセットによるニューロン/フィルタ層の出力を近似し,残りを破棄する。
このフレームワークは、下層から上層まで、レイヤ毎の方法で適用します。
これまでの研究とは異なり、コアセットはデータ独立であり、すなわち、逆数を含む任意の入力$x\in \mathbb{R}^d$に対して関数の精度を確実に保証する。
関連論文リスト
- Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - How Informative is the Approximation Error from Tensor Decomposition for
Neural Network Compression? [7.358732518242147]
最近の研究は、重みの近似誤差が、複数の層を圧縮し、圧縮されたモデルを微調整するモデルの性能のプロキシであると仮定している。
この仮定が様々な層や種類の分解にまたがって成立するかどうか、微調整の効果を実験的に検証する。
重みの近似誤差は、微調整の前後で、性能誤差と正の相関を持つことがわかった。
論文 参考訳(メタデータ) (2023-05-09T10:12:26Z) - Pruning Neural Networks via Coresets and Convex Geometry: Towards No
Assumptions [10.635248457021499]
プルーニングはディープニューラルネットワーク(DNN)を圧縮するための主要なアプローチの1つである
モデルの重みと入力を軽度に仮定して,そのようなコアセットを計算するための,新しい,堅牢なフレームワークを提案する。
提案手法は,既存のコアセットに基づくニューラルプルーニング手法を,幅広いネットワークやデータセットで性能的に向上させる。
論文 参考訳(メタデータ) (2022-09-18T12:45:26Z) - A Theoretical Understanding of Neural Network Compression from Sparse
Linear Approximation [37.525277809849776]
モデル圧縮の目標は、同等のパフォーマンスを維持しながら、大きなニューラルネットワークのサイズを減らすことだ。
圧縮性を特徴付けるためにスペーサ感度$ell_q$-normを使用し、ネットワーク内の重みの柔らかいスペーサと圧縮度の関係を提供する。
また,ネットワーク上で各ニューロンを切断する適応アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-11T20:10:35Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - Unified Multivariate Gaussian Mixture for Efficient Neural Image
Compression [151.3826781154146]
先行変数と超優先度を持つ潜伏変数は、変動画像圧縮において重要な問題である。
ベクトル化された視点で潜伏変数を観察する際、相関関係や相関関係は存在する。
当社のモデルでは、速度歪曲性能が向上し、圧縮速度が3.18倍に向上した。
論文 参考訳(メタデータ) (2022-03-21T11:44:17Z) - COIN++: Data Agnostic Neural Compression [55.27113889737545]
COIN++は、幅広いデータモダリティをシームレスに扱うニューラルネットワーク圧縮フレームワークである。
様々なデータモダリティを圧縮することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-01-30T20:12:04Z) - Low-rank Tensor Decomposition for Compression of Convolutional Neural
Networks Using Funnel Regularization [1.8579693774597708]
低ランクテンソル分解を用いた事前学習ネットワークを圧縮するモデル削減手法を提案する。
圧縮中の重要でない要因を抑えるために, ファンネル関数と呼ばれる新しい正規化法を提案する。
ImageNet2012のResNet18では、GMACの精度は0.7%に過ぎず、Top-1の精度はわずかに低下する。
論文 参考訳(メタデータ) (2021-12-07T13:41:51Z) - Compressing Neural Networks: Towards Determining the Optimal Layer-wise
Decomposition [62.41259783906452]
本稿では,ディープニューラルネットワークのための新しいグローバル圧縮フレームワークを提案する。
各層を自動的に解析し、最適な層間圧縮比を特定する。
我々の結果は、現代のニューラルネットワークのグローバルなパフォーマンス-サイズトレードオフに関する将来の研究のための新たな道を開く。
論文 参考訳(メタデータ) (2021-07-23T20:01:30Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z) - On Compression Principle and Bayesian Optimization for Neural Networks [0.0]
本稿では,全てのデータとモデル定義の合計圧縮メッセージ長を最小化しつつ,デオードビリティを保証しながら,最適な予測モデルを提案する圧縮原理を提案する。
圧縮原理によって要求される最適ネットワーク次元を求めることができる連続的な次元削減にドロップアウトが利用できることを示す。
論文 参考訳(メタデータ) (2020-06-23T03:23:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。