論文の概要: CrAM: A Compression-Aware Minimizer
- arxiv url: http://arxiv.org/abs/2207.14200v1
- Date: Thu, 28 Jul 2022 16:13:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-29 12:45:00.313214
- Title: CrAM: A Compression-Aware Minimizer
- Title(参考訳): CrAM:圧縮認識最小化器
- Authors: Alexandra Peste, Adrian Vladu, Dan Alistarh, Christoph H. Lampert
- Abstract要約: 本稿では,SGD トレーニングの繰り返しを原則的に修正する CrAM と呼ばれる新しい圧縮対応最小化器を提案する。
標準画像分類タスクの実験結果から,CrAMは標準SGD型ベースラインよりも精度の高い高密度モデルを生成することが示された。
- 参考スコア(独自算出の注目度): 110.81596446540279
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We examine the question of whether SGD-based optimization of deep neural
networks (DNNs) can be adapted to produce models which are both highly-accurate
and easily-compressible. We propose a new compression-aware minimizer dubbed
CrAM, which modifies the SGD training iteration in a principled way, in order
to produce models whose local loss behavior is stable under compression
operations such as weight pruning or quantization. Experimental results on
standard image classification tasks show that CrAM produces dense models that
can be more accurate than standard SGD-type baselines, but which are
surprisingly stable under weight pruning: for instance, for ResNet50 on
ImageNet, CrAM-trained models can lose up to 70% of their weights in one shot
with only minor accuracy loss.
- Abstract(参考訳): 本稿では,深部ニューラルネットワーク(DNN)のSGDに基づく最適化が,高精度かつ容易に圧縮可能なモデルの生成に適応できるかどうかを考察する。
重み付けや量子化などの圧縮操作下で局所的な損失挙動が安定なモデルを生成するために,SGDトレーニングイテレーションを原則的に修正するCrAMと呼ばれる新しい圧縮対応最小化器を提案する。
標準画像分類タスクにおける実験結果から、CrAMは標準SGD型ベースラインよりも精度の高い高密度モデルを生成するが、これは驚くほど安定であり、例えば、ImageNet上のResNet50では、CrAMでトレーニングされたモデルは1ショットで最大70%の重量を失い、わずかに精度が低下する。
関連論文リスト
- Activations and Gradients Compression for Model-Parallel Training [85.99744701008802]
モデル並列分散トレーニングセットアップにおけるアクティベーションと勾配の同時圧縮が収束に与える影響について検討する。
グラデーションはアクティベーションよりも軽度な圧縮速度を必要とする。
実験では、TopKでトレーニングされたモデルが、推論中に圧縮も適用された場合にのみ正常に動作することが示されている。
論文 参考訳(メタデータ) (2024-01-15T15:54:54Z) - Gradient-Free Structured Pruning with Unlabeled Data [57.999191898036706]
ラベルのないデータのみを使用する勾配のない構造化プルーニングフレームワークを提案する。
元々のFLOPカウントの最大40%は、考慮されたすべてのタスクで4%未満の精度で削減できる。
論文 参考訳(メタデータ) (2023-03-07T19:12:31Z) - Deep learning model compression using network sensitivity and gradients [3.52359746858894]
非リトレーニング条件とリトレーニング条件の両方に対するモデル圧縮アルゴリズムを提案する。
まず,ネットワークパラメータの感度を用いた深層学習モデルの圧縮のためのBin & Quantアルゴリズムを提案する。
第2のケースでは、新しい勾配重み付きk平均クラスタリングアルゴリズム(GWK)を提案する。
論文 参考訳(メタデータ) (2022-10-11T03:02:40Z) - Train Flat, Then Compress: Sharpness-Aware Minimization Learns More
Compressible Models [7.6356407698088]
不要なパラメータを抽出することは、大きなモデルを圧縮するための単純で効果的な方法として現れている。
平らな最小値の最適化は、標準Adamの最適化よりもパラメータの圧縮性が高いことを示す。
論文 参考訳(メタデータ) (2022-05-25T11:54:37Z) - Structured Pruning is All You Need for Pruning CNNs at Initialization [38.88730369884401]
プルーニングは畳み込みニューラルネットワーク(CNN)のモデルサイズと計算コストを削減する一般的な手法である
ハードウェア効率の良いモデル圧縮方式であるPreCroppingを提案する。
重み付けと比較して, 提案手法は, 精度を犠牲にすることなく, 記憶と計算の両面において規則的で密度が高い。
論文 参考訳(メタデータ) (2022-03-04T19:54:31Z) - Prune Once for All: Sparse Pre-Trained Language Models [0.6063525456640462]
そこで本研究では,ウェイトプルーニングとモデル蒸留を統合したスパース事前訓練型トランスフォーマー言語モデルの学習手法を提案する。
これらのスパース事前学習モデルは、疎度パターンを維持しながら、幅広いタスクの学習を伝達するために使用することができる。
圧縮されたスパース事前学習モデルが、その知識を、最小限の精度で5つの下流自然言語タスクに伝達する方法を示す。
論文 参考訳(メタデータ) (2021-11-10T15:52:40Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - Single-path Bit Sharing for Automatic Loss-aware Model Compression [126.98903867768732]
シングルパスビット共有(SBS)は、計算コストを大幅に削減し、有望な性能を達成する。
SBS圧縮MobileNetV2は、Top-1の精度がわずか0.1%低下した22.6倍ビット演算(BOP)を実現する。
論文 参考訳(メタデータ) (2021-01-13T08:28:21Z) - Training with Quantization Noise for Extreme Model Compression [57.51832088938618]
与えられたモデルサイズに対する精度を最大化しながら、コンパクトなモデルを作成するという問題に取り組む。
標準的な解決策は、トレーニング中に重みが定量化され、勾配がストレート・スルー推定器に近似される量子化意識訓練(Quantization Aware Training)でネットワークをトレーニングすることである。
本稿では, この手法を, 極端な圧縮法を用いて, int8 の固定点量子化を超えて機能するように拡張する。
論文 参考訳(メタデータ) (2020-04-15T20:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。