論文の概要: Search What You Want: Barrier Panelty NAS for Mixed Precision
Quantization
- arxiv url: http://arxiv.org/abs/2007.10026v1
- Date: Mon, 20 Jul 2020 12:00:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 13:04:36.569906
- Title: Search What You Want: Barrier Panelty NAS for Mixed Precision
Quantization
- Title(参考訳): 好きなものを検索する: バリアパネルのnas: 混合精度量子化
- Authors: Haibao Yu, Qi Han, Jianbo Li, Jianping Shi, Guangliang Cheng, Bin Fan
- Abstract要約: 混合精度量子化のための新しいバリアペナルティベースNAS(BP-NAS)を提案する。
BP-NASは、分類(Cifar-10, ImageNet)と検出(COCO)の両方に基づいて芸術の新たな状態を設定する
- 参考スコア(独自算出の注目度): 51.26579110596767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emergent hardwares can support mixed precision CNN models inference that
assign different bitwidths for different layers. Learning to find an optimal
mixed precision model that can preserve accuracy and satisfy the specific
constraints on model size and computation is extremely challenge due to the
difficult in training a mixed precision model and the huge space of all
possible bit quantizations. In this paper, we propose a novel soft Barrier
Penalty based NAS (BP-NAS) for mixed precision quantization, which ensures all
the searched models are inside the valid domain defined by the complexity
constraint, thus could return an optimal model under the given constraint by
conducting search only one time. The proposed soft Barrier Penalty is
differentiable and can impose very large losses to those models outside the
valid domain while almost no punishment for models inside the valid domain,
thus constraining the search only in the feasible domain. In addition, a
differentiable Prob-1 regularizer is proposed to ensure learning with NAS is
reasonable. A distribution reshaping training strategy is also used to make
training more stable. BP-NAS sets new state of the arts on both classification
(Cifar-10, ImageNet) and detection (COCO), surpassing all the efficient mixed
precision methods designed manually and automatically. Particularly, BP-NAS
achieves higher mAP (up to 2.7\% mAP improvement) together with lower bit
computation cost compared with the existing best mixed precision model on COCO
detection.
- Abstract(参考訳): 創発ハードウェアは、異なるレイヤに異なるビット幅を割り当てる混合精度cnnモデル推論をサポートすることができる。
混合精度モデルと可能なビット量子化の巨大な空間の訓練が困難であるため、精度を保ち、モデルサイズと計算の具体的な制約を満たすことのできる最適混合精度モデルを見つけることは極めて困難である。
本稿では,複雑な制約によって定義された有効な領域内に,探索された全てのモデルが存在することを保証し,探索を1回だけ行えば,与えられた制約の下で最適なモデルを返却できる,混合精度量子化のためのソフトバリアペナルティに基づくNAS(BP-NAS)を提案する。
提案するソフトバリアペナルティは微分可能であり、有効領域外のモデルに非常に大きな損失を課すことができるが、有効領域内のモデルに対する罰はほとんどない。
さらに、NASによる学習が妥当であるように、微分可能な Prob-1 正規化器が提案されている。
訓練をより安定させるためには、分布再構成訓練戦略も用いられる。
BP-NASは、分類(Cifar-10, ImageNet)と検出(COCO)の両方に基づいて、手動および自動で設計された全ての効率的な混合精度メソッドを超越した新しい芸術状態を設定する。
特にBP-NASは、COCO検出における既存の最良の混合精度モデルと比較して、高いmAP(最大2.7 % mAPの改善)と低いビット計算コストを達成する。
関連論文リスト
- Gradient-free variational learning with conditional mixture networks [39.827869318925494]
条件付き混合ネットワーク(CMN)は、高速で勾配のない推論に適しており、複雑な分類タスクを解くことができる。
UCIレポジトリから標準ベンチマークで2層CMNをトレーニングすることで、このアプローチを検証する。
提案手法であるCAVI-CMNは,バックプロパゲーションを伴う最大推定値(MLE)と比較して,競合的かつしばしば優れた予測精度を実現する。
論文 参考訳(メタデータ) (2024-08-29T10:43:55Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Augmenting Hessians with Inter-Layer Dependencies for Mixed-Precision
Post-Training Quantization [7.392278887917975]
本稿では,ネットワーク上のテンソルに異なる数値精度を割り当てる混合精度ポストトレーニング量子化手法を提案する。
実験では,16ビットベースラインの25.48%$,21.69%$,33.28%$に対して,レイテンシの低減を実証した。
論文 参考訳(メタデータ) (2023-06-08T02:18:58Z) - Mixed Precision Post Training Quantization of Neural Networks with
Sensitivity Guided Search [7.392278887917975]
混合精度量子化により、異なるテンソルを様々な数値精度のレベルに量子化することができる。
我々は,コンピュータビジョンと自然言語処理の手法を評価し,最大27.59%,34.31%のレイテンシ低減を実証した。
論文 参考訳(メタデータ) (2023-02-02T19:30:00Z) - Model Architecture Adaption for Bayesian Neural Networks [9.978961706999833]
我々はBNNを精度と不確実性の両方に最適化する新しいネットワークアーキテクチャサーチ(NAS)を示す。
我々の実験では,探索されたモデルでは,最先端(ディープアンサンブル)と比較して,不確実性と精度が比較できる。
論文 参考訳(メタデータ) (2022-02-09T10:58:50Z) - Automatic Mixed-Precision Quantization Search of BERT [62.65905462141319]
BERTのような事前訓練された言語モデルは、様々な自然言語処理タスクにおいて顕著な効果を示している。
これらのモデルは通常、数百万のパラメータを含んでおり、リソースに制約のあるデバイスへの実践的なデプロイを妨げている。
本稿では,サブグループレベルでの量子化とプルーニングを同時に行うことができるBERT用に設計された混合精密量子化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-30T06:32:47Z) - NAS-BERT: Task-Agnostic and Adaptive-Size BERT Compression with Neural
Architecture Search [100.71365025972258]
BERT圧縮の効率的な手法であるNAS-BERTを提案する。
NAS-BERTは、検索空間上で大きなスーパーネットをトレーニングし、適応的なサイズとレイテンシを持つ複数の圧縮モデルを出力する。
GLUEとSQuADベンチマークデータセットの実験は、NAS-BERTが以前のアプローチよりも高精度で軽量なモデルを見つけることができることを示した。
論文 参考訳(メタデータ) (2021-05-30T07:20:27Z) - Effective and Fast: A Novel Sequential Single Path Search for
Mixed-Precision Quantization [45.22093693422085]
混合精度量子化モデルは、異なる層の感度に応じて異なる量子化ビット精度にマッチし、優れた性能を達成できます。
いくつかの制約に従ってディープニューラルネットワークにおける各層の量子化ビット精度を迅速に決定することは難しい問題である。
混合精度量子化のための新規なシーケンシャルシングルパス探索(SSPS)法を提案する。
論文 参考訳(メタデータ) (2021-03-04T09:15:08Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z) - Triple Wins: Boosting Accuracy, Robustness and Efficiency Together by
Enabling Input-Adaptive Inference [119.19779637025444]
深層ネットワークは、(クリーンな自然画像の場合)正確さと(敵対的な摂動画像の場合)頑健さの相違に直面することを最近提案された。
本稿では,入力適応推論に関連するマルチエグジットネットワークについて検討し,モデル精度,ロバスト性,効率の最適化において「スイートポイント」を達成する上での強い期待を示す。
論文 参考訳(メタデータ) (2020-02-24T00:40:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。