論文の概要: AutoMC: Automated Model Compression based on Domain Knowledge and
Progressive search strategy
- arxiv url: http://arxiv.org/abs/2201.09884v1
- Date: Mon, 24 Jan 2022 04:24:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 14:07:13.908216
- Title: AutoMC: Automated Model Compression based on Domain Knowledge and
Progressive search strategy
- Title(参考訳): AutoMC:ドメイン知識とプログレッシブ検索戦略に基づく自動モデル圧縮
- Authors: Chunnan Wang, Hongzhi Wang, Xiangyu Shi
- Abstract要約: AutoMCはモデル圧縮のための効果的な自動ツールである。
モデル圧縮にドメイン知識を構築し、各圧縮方法の特徴と利点を理解する。
パーレト最適圧縮スキームを効率的に探索するプログレッシブ検索戦略を提案する。
- 参考スコア(独自算出の注目度): 5.16507824054135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model compression methods can reduce model complexity on the premise of
maintaining acceptable performance, and thus promote the application of deep
neural networks under resource constrained environments. Despite their great
success, the selection of suitable compression methods and design of details of
the compression scheme are difficult, requiring lots of domain knowledge as
support, which is not friendly to non-expert users. To make more users easily
access to the model compression scheme that best meet their needs, in this
paper, we propose AutoMC, an effective automatic tool for model compression.
AutoMC builds the domain knowledge on model compression to deeply understand
the characteristics and advantages of each compression method under different
settings. In addition, it presents a progressive search strategy to efficiently
explore pareto optimal compression scheme according to the learned prior
knowledge combined with the historical evaluation information. Extensive
experimental results show that AutoMC can provide satisfying compression
schemes within short time, demonstrating the effectiveness of AutoMC.
- Abstract(参考訳): モデル圧縮法は、許容性能を維持するという前提でモデルの複雑さを低減し、リソース制約環境下でのディープニューラルネットワークの適用を促進する。
その大きな成功にもかかわらず、適切な圧縮方法の選択と圧縮スキームの詳細の設計は困難であり、ドメイン知識の多くをサポートとして必要としています。
そこで本研究では,モデル圧縮のための効果的な自動ツールであるAutoMCを提案する。
automcはモデル圧縮に関するドメイン知識を構築し、異なる設定下で各圧縮メソッドの特徴と利点を深く理解する。
さらに,学習した事前知識と過去の評価情報とを合わせて,パレット最適圧縮スキームを効率的に探索するプログレッシブ検索戦略を提案する。
実験結果から,AutoMCは短時間で満足度の高い圧縮スキームを提供でき,AutoMCの有効性が示された。
関連論文リスト
- A Survey on Transformer Compression [84.18094368700379]
自然言語処理(NLP)とコンピュータビジョン(CV)の領域においてトランスフォーマーは重要な役割を果たす
モデル圧縮法は、Transformerのメモリと計算コストを削減する。
この調査は、Transformerベースのモデルに適用することに焦点を当てた、最近の圧縮方法に関する包括的なレビューを提供する。
論文 参考訳(メタデータ) (2024-02-05T12:16:28Z) - The Cost of Compression: Investigating the Impact of Compression on
Parametric Knowledge in Language Models [11.156816338995503]
大規模言語モデル(LLM)は、より高速な推論、メモリフットプリントの縮小、ローカルデプロイメントを可能にする。
2つの標準的な圧縮手法はプルーニングと量子化であり、前者はモデル層における冗長な接続を排除し、後者はより少ないビットでモデルパラメータを表現する。
LLM圧縮に関する既存の研究は、主にパープレキシティやダウンストリームタスクの精度といった一般的な指標のパフォーマンスに焦点を当てている。
パラメトリックな知識を測定するような、よりきめ細かいメトリクスは、いまだにかなり過小評価されている。
論文 参考訳(メタデータ) (2023-12-01T22:27:12Z) - Learning Accurate Performance Predictors for Ultrafast Automated Model
Compression [86.22294249097203]
フレキシブルネットワーク展開のための超高速自動モデル圧縮フレームワークSeerNetを提案する。
本手法は,探索コストを大幅に削減した競合精度・複雑度トレードオフを実現する。
論文 参考訳(メタデータ) (2023-04-13T10:52:49Z) - Towards Optimal Compression: Joint Pruning and Quantization [1.191194620421783]
本稿では,FITCompressについて紹介する。FITCompressは層単位での混合精度の量子化と非構造化プルーニングを組み合わせた新しい手法である。
コンピュータビジョンと自然言語処理ベンチマークの実験により,提案手法が優れた圧縮性能のトレードオフを実現することを示す。
論文 参考訳(メタデータ) (2023-02-15T12:02:30Z) - Towards Hardware-Specific Automatic Compression of Neural Networks [0.0]
プルーニングと量子化が ニューラルネットワークを圧縮する主要なアプローチです
効率的な圧縮ポリシーは、特定のハードウェアアーキテクチャが使用する圧縮方法に与える影響を考慮する。
本稿では,プレニングと量子化を利用した強化学習を用いて,Galenと呼ばれるアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-15T13:34:02Z) - What do Compressed Large Language Models Forget? Robustness Challenges
in Model Compression [68.82486784654817]
本稿では,知識蒸留とプルーニングを含む2つの一般的なモデル圧縮手法について検討する。
本研究では, 圧縮モデルが, 対向テストセット上のPLMモデルよりもはるかに頑健であることを示す。
サンプル不確実性に基づくモデル圧縮の正規化戦略を開発する。
論文 参考訳(メタデータ) (2021-10-16T00:20:04Z) - You Only Compress Once: Towards Effective and Elastic BERT Compression
via Exploit-Explore Stochastic Nature Gradient [88.58536093633167]
既存のモデル圧縮アプローチでは、さまざまなハードウェアデプロイメントに対応するために、さまざまな制約にまたがる再圧縮や微調整が必要となる。
圧縮を一度行い、至るところに展開するための新しいアプローチであるYOCO-BERTを提案する。
最先端のアルゴリズムと比較すると、YOCO-BERTはよりコンパクトなモデルを提供するが、GLUEベンチマークの平均精度は2.1%-4.5%向上している。
論文 参考訳(メタデータ) (2021-06-04T12:17:44Z) - PowerGossip: Practical Low-Rank Communication Compression in
Decentralized Deep Learning [62.440827696638664]
本稿では,近隣労働者間のモデル差を直接圧縮する簡単なアルゴリズムを提案する。
中央集権的なディープラーニングのためにPowerSGDにインスパイアされたこのアルゴリズムは、パワーステップを使用して、1ビットあたりの転送情報を最大化する。
論文 参考訳(メタデータ) (2020-08-04T09:14:52Z) - Self-Supervised GAN Compression [32.21713098893454]
従来の手法では,標準モデル圧縮手法であるウェイトプルーニングがGANに適用できないことを示す。
次に、訓練された判別器を用いて圧縮発電機の訓練を監督する自己教師圧縮手法を開発する。
我々は,このフレームワークが高い疎度に対して魅力的な性能を示し,新しいタスクやモデルに容易に適用できることを示し,異なるプルーニング粒度間の有意義な比較を可能にする。
論文 参考訳(メタデータ) (2020-07-03T04:18:54Z) - Structured Sparsification with Joint Optimization of Group Convolution
and Channel Shuffle [117.95823660228537]
本稿では,効率的なネットワーク圧縮のための新しい構造空間分割法を提案する。
提案手法は, 畳み込み重みに対する構造的疎度を自動的に誘導する。
また,学習可能なチャネルシャッフル機構によるグループ間通信の問題にも対処する。
論文 参考訳(メタデータ) (2020-02-19T12:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。