論文の概要: Generalizable Mixed-Precision Quantization via Attribution Rank
Preservation
- arxiv url: http://arxiv.org/abs/2108.02720v1
- Date: Thu, 5 Aug 2021 16:41:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 14:37:37.520715
- Title: Generalizable Mixed-Precision Quantization via Attribution Rank
Preservation
- Title(参考訳): 帰属ランク保存による一般化可能な混合精度量子化
- Authors: Ziwei Wang, Han Xiao, Jiwen Lu, Jie Zhou
- Abstract要約: 効率的な推論のための一般化可能な混合精度量子化法(GMPQ)を提案する。
提案手法は,最先端の混合精度ネットワークと比較し,競合精度・複雑度トレードオフを求める。
- 参考スコア(独自算出の注目度): 90.26603048354575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a generalizable mixed-precision quantization (GMPQ)
method for efficient inference. Conventional methods require the consistency of
datasets for bitwidth search and model deployment to guarantee the policy
optimality, leading to heavy search cost on challenging largescale datasets in
realistic applications. On the contrary, our GMPQ searches the
mixed-quantization policy that can be generalized to largescale datasets with
only a small amount of data, so that the search cost is significantly reduced
without performance degradation. Specifically, we observe that locating network
attribution correctly is general ability for accurate visual analysis across
different data distribution. Therefore, despite of pursuing higher model
accuracy and complexity, we preserve attribution rank consistency between the
quantized models and their full-precision counterparts via efficient
capacity-aware attribution imitation for generalizable mixed-precision
quantization strategy search. Extensive experiments show that our method
obtains competitive accuracy-complexity trade-off compared with the
state-of-the-art mixed-precision networks in significantly reduced search cost.
The code is available at https://github.com/ZiweiWangTHU/GMPQ.git.
- Abstract(参考訳): 本稿では,効率的な推論のための一般化可能な混合精度量子化法を提案する。
従来の方法では、ポリシーの最適性を保証するためにビット幅探索とモデル展開のためのデータセットの一貫性が必要であり、現実的なアプリケーションで大規模データセットに挑戦する際の検索コストが重い。
一方,GMPQでは,データ量が少ない大規模データセットに一般化可能な混合量子化ポリシーを探索し,性能劣化を伴わずに検索コストを大幅に削減した。
具体的には、ネットワーク属性の正確な位置決めが、異なるデータ分布における正確な視覚解析の一般的な能力であることを示す。
したがって、高いモデルの精度と複雑さを追求するにもかかわらず、一般化された混合精度量子化戦略探索のための効率的なキャパシティ・アウェア・アトリビューション模倣により、量子化モデルと全精度モデルのアトリビューションランクの一貫性を保ちます。
大規模実験により,検索コストが大幅に削減され,精度と複雑さのトレードオフが得られた。
コードはhttps://github.com/ziweiwangthu/gmpq.gitで入手できる。
関連論文リスト
- RGM: A Robust Generalizable Matching Model [49.60975442871967]
RGM(Robust Generalist Matching)と呼ばれる疎密マッチングのための深部モデルを提案する。
合成トレーニングサンプルと実世界のシナリオのギャップを狭めるために、我々は、疎対応基盤真理を持つ新しい大規模データセットを構築した。
さまざまな密集したスパースなデータセットを混ぜ合わせることができ、トレーニングの多様性を大幅に改善しています。
論文 参考訳(メタデータ) (2023-10-18T07:30:08Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Learning Accurate Performance Predictors for Ultrafast Automated Model
Compression [86.22294249097203]
フレキシブルネットワーク展開のための超高速自動モデル圧縮フレームワークSeerNetを提案する。
本手法は,探索コストを大幅に削減した競合精度・複雑度トレードオフを実現する。
論文 参考訳(メタデータ) (2023-04-13T10:52:49Z) - SEAM: Searching Transferable Mixed-Precision Quantization Policy through
Large Margin Regularization [50.04951511146338]
混合精度量子化(MPQ)は各層に対して最適なビット幅割り当てを求めるのに時間を要する。
本稿では,小規模なプロキシデータセットを用いて効率的なMPQポリシーを効率的に検索する手法を提案する。
論文 参考訳(メタデータ) (2023-02-14T05:47:45Z) - Pretrained Cost Model for Distributed Constraint Optimization Problems [37.79733538931925]
分散制約最適化問題(DCOP)は、最適化問題の重要なサブクラスである。
本稿では,DCOPのための新しい非巡回グラフスキーマ表現を提案し,グラフ表現を組み込むためにグラフ注意ネットワーク(GAT)を利用する。
我々のモデルであるGAT-PCMは、幅広いDCOPアルゴリズムを向上するために、オフラインで最適なラベル付きデータで事前訓練される。
論文 参考訳(メタデータ) (2021-12-08T09:24:10Z) - Effective and Fast: A Novel Sequential Single Path Search for
Mixed-Precision Quantization [45.22093693422085]
混合精度量子化モデルは、異なる層の感度に応じて異なる量子化ビット精度にマッチし、優れた性能を達成できます。
いくつかの制約に従ってディープニューラルネットワークにおける各層の量子化ビット精度を迅速に決定することは難しい問題である。
混合精度量子化のための新規なシーケンシャルシングルパス探索(SSPS)法を提案する。
論文 参考訳(メタデータ) (2021-03-04T09:15:08Z) - A Partial Regularization Method for Network Compression [0.0]
本稿では, モデル圧縮を高速に行うために, 完全正則化と言われる全てのパラメータをペナライズする元の形式ではなく, 部分正則化のアプローチを提案する。
実験結果から, ほぼすべての状況において, 走行時間の減少を観測することにより, 計算複雑性を低減できることが示唆された。
驚くべきことに、複数のデータセットのトレーニングフェーズとテストフェーズの両方において、回帰フィッティング結果や分類精度などの重要な指標を改善するのに役立ちます。
論文 参考訳(メタデータ) (2020-09-03T00:38:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。