論文の概要: Modulating Regularization Frequency for Efficient Compression-Aware
Model Training
- arxiv url: http://arxiv.org/abs/2105.01875v1
- Date: Wed, 5 May 2021 05:44:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 12:56:55.745127
- Title: Modulating Regularization Frequency for Efficient Compression-Aware
Model Training
- Title(参考訳): 効率的な圧縮認識モデルトレーニングのための正則化周波数の変調
- Authors: Dongsoo Lee, Se Jung Kwon, Byeongwook Kim, Jeongin Yun, Baeseong Park,
Yongkweon Jeon
- Abstract要約: 新しい正規化手法として正規化周波数(すなわち、トレーニング中に圧縮が行われる頻度)を導入する。
正規化周波数がモデル圧縮の正規化強度に重大な影響を及ぼすことを示す。
- 参考スコア(独自算出の注目度): 10.418747469011526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While model compression is increasingly important because of large neural
network size, compression-aware training is challenging as it needs
sophisticated model modifications and longer training time.In this paper, we
introduce regularization frequency (i.e., how often compression is performed
during training) as a new regularization technique for a practical and
efficient compression-aware training method. For various regularization
techniques, such as weight decay and dropout, optimizing the regularization
strength is crucial to improve generalization in Deep Neural Networks (DNNs).
While model compression also demands the right amount of regularization, the
regularization strength incurred by model compression has been controlled only
by compression ratio. Throughout various experiments, we show that
regularization frequency critically affects the regularization strength of
model compression. Combining regularization frequency and compression ratio,
the amount of weight updates by model compression per mini-batch can be
optimized to achieve the best model accuracy. Modulating regularization
frequency is implemented by occasional model compression while conventional
compression-aware training is usually performed for every mini-batch.
- Abstract(参考訳): モデル圧縮は,大きなニューラルネットワークサイズのため,ますます重要になっているが,より洗練されたモデル修正と長いトレーニング時間を必要とするため,圧縮認識訓練は困難であり,本研究では,実用的で効率的な圧縮認識訓練手法のための新しい正規化手法として,正規化周波数(トレーニング中に圧縮がどれだけ頻繁に実行されるか)を導入する。
減量や減量といった多種多様な正則化技術では、Deep Neural Networks(DNN)における一般化を改善するために、正則化強度の最適化が不可欠である。
モデル圧縮も正則化の適切な量を要求するが、モデル圧縮による正則化強度は圧縮比でのみ制御されている。
各種実験を通して、正規化周波数がモデル圧縮の正規化強度に重大な影響を及ぼすことを示す。
正規化周波数と圧縮比を組み合わせることで、ミニバッチあたりのモデル圧縮による重みの更新量を最適化し、最適なモデル精度を達成することができる。
正規化周波数の変調は時折モデル圧縮によって行われるが、従来の圧縮認識訓練は通常、ミニバッチ毎に行われる。
関連論文リスト
- Convolutional Neural Network Compression Based on Low-Rank Decomposition [3.3295360710329738]
本稿では,変分ベイズ行列分解を組み込んだモデル圧縮法を提案する。
VBMFは各層における重みテンソルのランクを推定するために用いられる。
その結果, 高圧縮比と低圧縮比では, 圧縮モデルの性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-29T06:40:34Z) - Activations and Gradients Compression for Model-Parallel Training [85.99744701008802]
モデル並列分散トレーニングセットアップにおけるアクティベーションと勾配の同時圧縮が収束に与える影響について検討する。
グラデーションはアクティベーションよりも軽度な圧縮速度を必要とする。
実験では、TopKでトレーニングされたモデルが、推論中に圧縮も適用された場合にのみ正常に動作することが示されている。
論文 参考訳(メタデータ) (2024-01-15T15:54:54Z) - Learning Accurate Performance Predictors for Ultrafast Automated Model
Compression [86.22294249097203]
フレキシブルネットワーク展開のための超高速自動モデル圧縮フレームワークSeerNetを提案する。
本手法は,探索コストを大幅に削減した競合精度・複雑度トレードオフを実現する。
論文 参考訳(メタデータ) (2023-04-13T10:52:49Z) - Backdoor Attacks Against Deep Image Compression via Adaptive Frequency
Trigger [106.10954454667757]
本稿では,学習画像圧縮モデルに対する複数のトリガーを用いたバックドアアタックを提案する。
既存の圧縮システムや標準で広く使われている離散コサイン変換(DCT)に動機付けられ,周波数ベースのトリガーインジェクションモデルを提案する。
論文 参考訳(メタデータ) (2023-02-28T15:39:31Z) - Optimal Rate Adaption in Federated Learning with Compressed
Communications [28.16239232265479]
フェデレートラーニングは高い通信オーバーヘッドを引き起こし、モデル更新の圧縮によって大幅に軽減される。
ネットワーク環境における 圧縮とモデルの精度のトレードオフは 未だ不明です
各繰り返しの圧縮を戦略的に調整することで最終モデルの精度を最大化する枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-13T14:26:15Z) - What do Compressed Large Language Models Forget? Robustness Challenges
in Model Compression [68.82486784654817]
本稿では,知識蒸留とプルーニングを含む2つの一般的なモデル圧縮手法について検討する。
本研究では, 圧縮モデルが, 対向テストセット上のPLMモデルよりもはるかに頑健であることを示す。
サンプル不確実性に基づくモデル圧縮の正規化戦略を開発する。
論文 参考訳(メタデータ) (2021-10-16T00:20:04Z) - Substitutional Neural Image Compression [48.20906717052056]
置換型ニューラルイメージ圧縮(snic)は、あらゆるニューラルイメージ圧縮モデルを強化する一般的なアプローチである。
フレキシブルな歪みメトリックに向けて圧縮性能を高め、単一のモデルインスタンスを使用したビットレート制御を可能にする。
論文 参考訳(メタデータ) (2021-05-16T20:53:31Z) - Neural Network Compression Via Sparse Optimization [23.184290795230897]
スパース最適化の最近の進歩に基づくモデル圧縮フレームワークを提案する。
我々は、CIFAR10のVGG16とImageNetのResNet50で、同じレベルの精度で、最大7.2倍と2.9倍のFLOPを削減できる。
論文 参考訳(メタデータ) (2020-11-10T03:03:55Z) - Accordion: Adaptive Gradient Communication via Critical Learning Regime
Identification [12.517161466778655]
分散モデルトレーニングは、計算ノードにまたがる頻繁なモデル更新による通信ボトルネックに悩まされる。
これらのボトルネックを軽減するために、実践者はスパーシフィケーションや量子化、低ランク更新といった勾配圧縮技術を使用する。
本研究では,高圧縮比の選択による性能劣化が基本的でないことを示す。
適応圧縮戦略は、最終テスト精度を維持しながら通信を低減することができる。
論文 参考訳(メタデータ) (2020-10-29T16:41:44Z) - Training with Quantization Noise for Extreme Model Compression [57.51832088938618]
与えられたモデルサイズに対する精度を最大化しながら、コンパクトなモデルを作成するという問題に取り組む。
標準的な解決策は、トレーニング中に重みが定量化され、勾配がストレート・スルー推定器に近似される量子化意識訓練(Quantization Aware Training)でネットワークをトレーニングすることである。
本稿では, この手法を, 極端な圧縮法を用いて, int8 の固定点量子化を超えて機能するように拡張する。
論文 参考訳(メタデータ) (2020-04-15T20:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。