論文の概要: CAP: Correlation-Aware Pruning for Highly-Accurate Sparse Vision Models
- arxiv url: http://arxiv.org/abs/2210.09223v2
- Date: Wed, 31 May 2023 09:59:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 04:10:35.110666
- Title: CAP: Correlation-Aware Pruning for Highly-Accurate Sparse Vision Models
- Title(参考訳): CAP:高精度スパースビジョンモデルのための相関対応プルーニング
- Authors: Denis Kuznedelev, Eldar Kurtic, Elias Frantar, Dan Alistarh
- Abstract要約: correlation Aware Pruner (CAP) は最先端アーキテクチャの圧縮限界を大幅に押し下げる。
新たな理論的に調整されたプルーナーは、プルーニングプロセス自体の複雑な重量相関を正確かつ効率的に処理する。
自己監督技術を用いて訓練された超高精度な大規模視覚モデルも、適度な空間にプルーニングでき、精度の低下も無視できることを示す。
- 参考スコア(独自算出の注目度): 22.055655390093722
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Driven by significant improvements in architectural design and training
pipelines, computer vision has recently experienced dramatic progress in terms
of accuracy on classic benchmarks such as ImageNet. These highly-accurate
models are challenging to deploy, as they appear harder to compress using
standard techniques such as pruning. We address this issue by introducing the
Correlation Aware Pruner (CAP), a new unstructured pruning framework which
significantly pushes the compressibility limits for state-of-the-art
architectures. Our method is based on two technical advancements: a new
theoretically-justified pruner, which can handle complex weight correlations
accurately and efficiently during the pruning process itself, and an efficient
finetuning procedure for post-compression recovery. We validate our approach
via extensive experiments on several modern vision models such as Vision
Transformers (ViT), modern CNNs, and ViT-CNN hybrids, showing for the first
time that these can be pruned to high sparsity levels (e.g. $\geq 75$%) with
low impact on accuracy ($\leq 1$% relative drop). Our approach is also
compatible with structured pruning and quantization, and can lead to practical
speedups of 1.5 to 2.4x without accuracy loss. To further showcase CAP's
accuracy and scalability, we use it to show for the first time that
extremely-accurate large vision models, trained via self-supervised techniques,
can also be pruned to moderate sparsities, with negligible accuracy loss.
- Abstract(参考訳): アーキテクチャ設計とトレーニングパイプラインの大幅な改善によって、コンピュータビジョンはimagenetのような古典的なベンチマークで精度の面で劇的な進歩を経験した。
これらの高精度なモデルは展開が困難であり、刈り取りなどの標準技術を使って圧縮するのが困難である。
本稿では,非構造化プルーニングフレームワークであるRelation Aware Pruner (CAP)を導入し,最先端アーキテクチャの圧縮性限界を大幅に押し上げている。
本手法は, プレニングプロセス自体の複雑な重量相関を精度よく, 効率的に処理できる新しい理論修正プルーナーと, 圧縮後回復のための効率的な微調整手順の2つの技術進歩に基づいている。
私たちは、視覚変換器(ViT)、現代のCNN、ViT-CNNハイブリッドなどの現代の視覚モデルに関する広範な実験を通じて、これらのモデルが高い空間レベル(例えば$\geq 75$%)に到達し、精度に低い影響(相対的なドロップ)を持つことを示す。
本手法は,構造的プルーニングや量子化にも適合しており,精度を損なうことなく1.5倍から2.4倍の実用的高速化を実現することができる。
CAPの精度とスケーラビリティをさらに示すために、自己監督技術を用いて訓練された極めて正確な大規模視覚モデルも、無視できる精度の損失で、適度な間隔に切断できることを示した。
関連論文リスト
- Comb, Prune, Distill: Towards Unified Pruning for Vision Model Compression [24.119415458653616]
我々はモデル非依存とタスク非依存の両方に同時に対処する新しい統一型刈取フレームワークComb, Prune, Distill (CPD)を提案する。
当社のフレームワークは階層的な階層的な依存性問題を解決するための統合的なステップを採用しており、アーキテクチャの独立性を実現しています。
画像分類では、精度が1.8%、セマンティックセグメンテーションがx1.89、mIoUが5.1%のスピードアップを達成する。
論文 参考訳(メタデータ) (2024-08-06T09:02:31Z) - Task-Agnostic Structured Pruning of Speech Representation Models [18.555223754089905]
性能劣化を補うための微粒なアテンションヘッドプルーニング法を提案する。
SUPERBベンチマーク実験により,複数のタスクで高密度モデルに匹敵する性能が得られた。
論文 参考訳(メタデータ) (2023-06-02T09:11:06Z) - GOHSP: A Unified Framework of Graph and Optimization-based Heterogeneous
Structured Pruning for Vision Transformer [76.2625311630021]
視覚変換器(ViT)は、様々なコンピュータビジョンタスクにおいて非常に印象的な経験的性能を示している。
この問題を緩和するために、構造化プルーニングはモデルサイズを圧縮し、実用的な効率を実現するための有望な解決策である。
グラフと最適化に基づく構造的プルーニング(Structured Pruning)を統合化したフレームワークであるGOHSPを提案する。
論文 参考訳(メタデータ) (2023-01-13T00:40:24Z) - Annealing Double-Head: An Architecture for Online Calibration of Deep
Neural Networks [1.1602089225841632]
現代のディープニューラルネットワークは、予測信頼度が過大評価されているため、概してキャリブレーションが不十分である。
本稿では,DNN を訓練中に校正するための簡易かつ高効率なアーキテクチャである Annealing Double-Head を提案する。
提案手法は, 後処理を伴わずに, 最先端モデル校正性能を達成できることを実証する。
論文 参考訳(メタデータ) (2022-12-27T21:21:58Z) - CrAM: A Compression-Aware Minimizer [103.29159003723815]
本稿では、CrAMと呼ばれる新しい圧縮対応最小化器を提案し、最適化ステップを原則的に修正する。
CrAMは、標準のSGD/アダムベースベースラインよりも精度が高い密度のモデルを生成するが、重量計算では安定である。
CrAMは、転送学習のためにうまく機能するスパースモデルを生成することができ、GPUハードウェアでサポートされている半構造化の2:4プルーニングパターンでも機能する。
論文 参考訳(メタデータ) (2022-07-28T16:13:28Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - The Optimal BERT Surgeon: Scalable and Accurate Second-Order Pruning for
Large Language Models [23.12519490211362]
本稿では,BERTモデルの文脈における非構造重み打ちの精度圧縮トレードオフについて検討する。
近似2次情報に基づく効率的かつ正確な重量刈り法であるO-BERT-S(Optimal BERT Surgeon)を提案する。
本研究では,トランスフォーマーモデルに対する圧縮手法の複合化において,このプルーニング法が与える影響について検討する。
論文 参考訳(メタデータ) (2022-03-14T16:40:31Z) - Powerpropagation: A sparsity inducing weight reparameterisation [65.85142037667065]
我々は、本質的にスパースモデルにつながるニューラルネットワークの新しい重みパラメータ化であるPowerpropagationを紹介した。
この方法で訓練されたモデルは同様の性能を示すが、0で明らかに高い密度の分布を持ち、より多くのパラメータを安全に刈り取ることができる。
ここでは、Powerpropagationと従来のウェイトプルーニング技術と、最近の最先端スパース・トゥ・スパースアルゴリズムを組み合わせることで、ImageNetベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-01T10:03:57Z) - Layer Pruning on Demand with Intermediate CTC [50.509073206630994]
我々はコネクショニスト時間分類(CTC)に基づくASRの訓練と刈り取り方法を提案する。
本稿では,Transformer-CTCモデルをオンデマンドで様々な深さでプルーニングできることを示し,GPU上でのリアルタイム係数を0.005から0.002に改善した。
論文 参考訳(メタデータ) (2021-06-17T02:40:18Z) - DAIS: Automatic Channel Pruning via Differentiable Annealing Indicator
Search [55.164053971213576]
畳み込みニューラルネットワークは,計算オーバーヘッドが大きいにもかかわらず,コンピュータビジョンタスクの実行において大きな成功を収めている。
構造的(チャネル)プルーニングは、通常、ネットワーク構造を保ちながらモデルの冗長性を低減するために適用される。
既存の構造化プルーニング法では、手作りのルールが必要であり、これは大きなプルーニング空間に繋がる可能性がある。
論文 参考訳(メタデータ) (2020-11-04T07:43:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。