論文の概要: From Quantized DNNs to Quantizable DNNs
- arxiv url: http://arxiv.org/abs/2004.05284v1
- Date: Sat, 11 Apr 2020 02:25:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 12:49:42.532828
- Title: From Quantized DNNs to Quantizable DNNs
- Title(参考訳): 量子化DNNから量子化可能DNNへ
- Authors: Kunyuan Du, Ya Zhang, Haibing Guan
- Abstract要約: 量子化可能なDNNは、実行中にビット幅(その後ビットモードとして記述される)をフレキシブルに量子化することができる。
一貫性に基づく損失は、トレーニング中の規則化の特定の形態と見なすこともできる。
- 参考スコア(独自算出の注目度): 27.683009019256005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes Quantizable DNNs, a special type of DNNs that can
flexibly quantize its bit-width (denoted as `bit modes' thereafter) during
execution without further re-training. To simultaneously optimize for all bit
modes, a combinational loss of all bit modes is proposed, which enforces
consistent predictions ranging from low-bit mode to 32-bit mode. This
Consistency-based Loss may also be viewed as certain form of regularization
during training. Because outputs of matrix multiplication in different bit
modes have different distributions, we introduce Bit-Specific Batch
Normalization so as to reduce conflicts among different bit modes. Experiments
on CIFAR100 and ImageNet have shown that compared to quantized DNNs,
Quantizable DNNs not only have much better flexibility, but also achieve even
higher classification accuracy. Ablation studies further verify that the
regularization through the consistency-based loss indeed improves the model's
generalization performance.
- Abstract(参考訳): 本稿では,実行中のビット幅(その後「ビットモード」と表記される)を,さらなる再学習なしに柔軟に定量化できる特殊なDNNであるQuantizable DNNを提案する。
全ビットモードを同時に最適化するために、低ビットモードから32ビットモードまでの一貫した予測を強制する全ビットモードの組合せ損失を提案する。
この一貫性に基づく損失は、トレーニング中にある種の正規化と見なすこともできる。
異なるビットモードにおける行列乗算の出力は異なる分布を持つので、異なるビットモード間の競合を減らすために、Bit-Specific Batch Normalizationを導入する。
CIFAR100とImageNetの実験では、量子化されたDNNと比較して、Quantizable DNNはより優れた柔軟性を持つだけでなく、より高い分類精度を実現する。
アブレーション研究により、一貫性に基づく損失による正規化がモデルの一般化性能を実際に向上することを確認する。
関連論文リスト
- Decouple Graph Neural Networks: Train Multiple Simple GNNs Simultaneously Instead of One [60.5818387068983]
グラフニューラルネットワーク(GNN)は、深刻な非効率性に悩まされている。
我々は,より効率的なトレーニングを行うために,多層GNNを複数の単純なモジュールとして分離することを提案する。
提案するフレームワークは,合理的な性能で高い効率性を示す。
論文 参考訳(メタデータ) (2023-04-20T07:21:32Z) - Optimizing data-flow in Binary Neural Networks [0.0]
本稿では,BNNパイプラインにおけるデータフローと並列性を向上させる新しいトレーニング手法を提案する。
また,ARM命令セットに対するバイナリ直接畳み込みを最適化した実装を提案する。
実験の結果,少なくとも1つの完全精度モデルに対して精度を低下させることなく,推論速度を一貫した改善(最先端の2つのBNNフレームワークと比較して最大1.91と2.73倍)した。
論文 参考訳(メタデータ) (2023-04-03T13:16:33Z) - DyBit: Dynamic Bit-Precision Numbers for Efficient Quantized Neural
Network Inference [28.912023025671868]
この作業は、DyBitと呼ばれる可変長エンコーディングを持つ適応データ表現をターゲットにしている。
また,予測精度と高速化をトレードオフする混合精度加速器を備えたハードウェア対応量子化フレームワークを提案する。
実験の結果、DyBitによる推論精度は4ビット量子化の最先端よりも1.997%高いことがわかった。
論文 参考訳(メタデータ) (2023-02-24T08:46:01Z) - Masked Bayesian Neural Networks : Computation and Optimality [1.3649494534428745]
そこで本稿では, 適切な複雑性を伴って, 優れた深層ニューラルネットワークを探索する, スパースベイズニューラルネットワーク(BNN)を提案する。
我々は各ノードのマスキング変数を用いて、後続分布に応じていくつかのノードをオフにし、ノードワイズDNNを生成する。
いくつかのベンチマークデータセットを解析することにより,提案したBNNが既存手法と比較してよく動作することを示す。
論文 参考訳(メタデータ) (2022-06-02T02:59:55Z) - Automatic Mapping of the Best-Suited DNN Pruning Schemes for Real-Time
Mobile Acceleration [71.80326738527734]
本稿では,汎用的,きめ細かな構造化プルーニング手法とコンパイラの最適化を提案する。
提案手法は,より微細な構造化プルーニング手法とともに,最先端のDNN最適化フレームワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-22T23:53:14Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Filter Pre-Pruning for Improved Fine-tuning of Quantized Deep Neural
Networks [0.0]
本稿では,DNNの微調整を妨害するフィルタを除去するPruning for Quantization (PfQ)と呼ばれる新しいプルーニング手法を提案する。
良く知られたモデルとデータセットを用いた実験により,提案手法が類似したモデルサイズで高い性能を実現することを確認した。
論文 参考訳(メタデータ) (2020-11-13T04:12:54Z) - Double Forward Propagation for Memorized Batch Normalization [68.34268180871416]
バッチ正規化(BN)は、ディープニューラルネットワーク(DNN)の設計における標準コンポーネントである。
より正確でロバストな統計値を得るために,複数の最近のバッチを考慮に入れた記憶型バッチ正規化(MBN)を提案する。
関連する手法と比較して、提案したMBNはトレーニングと推論の両方において一貫した振る舞いを示す。
論文 参考訳(メタデータ) (2020-10-10T08:48:41Z) - A Fully Tensorized Recurrent Neural Network [48.50376453324581]
重み付けされたRNNアーキテクチャを導入し、各リカレントセル内の個別の重み付け行列を共同で符号化する。
このアプローチはモデルのサイズを数桁削減するが、通常のRNNと同等あるいは優れた性能を維持している。
論文 参考訳(メタデータ) (2020-10-08T18:24:12Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。