論文の概要: Quantized Neural Networks: Characterization and Holistic Optimization
- arxiv url: http://arxiv.org/abs/2006.00530v1
- Date: Sun, 31 May 2020 14:20:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 12:22:26.667360
- Title: Quantized Neural Networks: Characterization and Holistic Optimization
- Title(参考訳): 量子化ニューラルネットワーク:キャラクタリゼーションと総合最適化
- Authors: Yoonho Boo, Sungho Shin, and Wonyong Sung
- Abstract要約: 低消費電力、高スループット、組み込みアプリケーションには量子ディープニューラルネットワーク(QDNN)が必要である。
本研究はQDNNトレーニング手法と量子化フレンドリなアーキテクチャ設計を含むQDNNの最適化のための総合的なアプローチを提案する。
その結果、より深いモデルは活性化量子化の傾向が強く、より広いモデルは重量と活性化量子化の両面でレジリエンスを向上させることが示唆された。
- 参考スコア(独自算出の注目度): 25.970152258542672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantized deep neural networks (QDNNs) are necessary for low-power, high
throughput, and embedded applications. Previous studies mostly focused on
developing optimization methods for the quantization of given models. However,
quantization sensitivity depends on the model architecture. Therefore, the
model selection needs to be a part of the QDNN design process. Also, the
characteristics of weight and activation quantization are quite different. This
study proposes a holistic approach for the optimization of QDNNs, which
contains QDNN training methods as well as quantization-friendly architecture
design. Synthesized data is used to visualize the effects of weight and
activation quantization. The results indicate that deeper models are more prone
to activation quantization, while wider models improve the resiliency to both
weight and activation quantization. This study can provide insight into better
optimization of QDNNs.
- Abstract(参考訳): 低消費電力、高スループット、組み込みアプリケーションには量子ディープニューラルネットワーク(QDNN)が必要である。
これまでの研究は主に与えられたモデルの量子化のための最適化手法の開発に重点を置いていた。
しかし、量子化感度はモデルアーキテクチャに依存する。
したがって、モデル選択はQDNN設計プロセスの一部となる必要がある。
また、重量と活性化量子化の特性は全く異なる。
本研究はQDNNのトレーニング手法と量子化フレンドリなアーキテクチャ設計を含むQDNNの最適化のための総合的なアプローチを提案する。
合成データは、重量と活性化量子化の効果を可視化するために使用される。
その結果、より深いモデルは活性化量子化の傾向が強く、より広いモデルは重量と活性化量子化の両面でレジリエンスを向上させることが示された。
本研究はQDNNの最適化に関する知見を提供する。
関連論文リスト
- SQUAT: Stateful Quantization-Aware Training in Recurrent Spiking Neural Networks [1.0923877073891446]
スパイキングニューラルネットワーク(SNN)は効率を向上させるという目標を共有しているが、ニューラルネットワーク推論の消費電力を減らすために、"イベント駆動"アプローチを採用する。
本稿では, ステートフルニューロンに対するQAT方式として, (i) 均一量子化戦略, (ii) 重み量子化の確立された方法, (ii) しきい値中心量子化の2つを紹介する。
以上の結果から,発火閾値付近の量子化レベルの密度の増加は,複数のベンチマークデータセットの精度を向上させることが示唆された。
論文 参考訳(メタデータ) (2024-04-15T03:07:16Z) - Practical application of quantum neural network to materials
informatics: prediction of the melting points of metal oxides [0.0]
量子ニューラルネットワーク(QNN)モデルは、その強い表現性と過剰適合に対する抵抗により、注目を集めている。
本研究の目的は,金属酸化物の融点を予測するためのQNNモデルを構築することである。
効率的なQNNモデルを作成するために,様々なアーキテクチャ (エンコーディング手法とエンタングル配置) について検討した。
論文 参考訳(メタデータ) (2023-10-27T07:21:36Z) - BiTAT: Neural Network Binarization with Task-dependent Aggregated
Transformation [116.26521375592759]
量子化は、与えられたニューラルネットワークの高精度ウェイトとアクティベーションを、メモリ使用量と計算量を減らすために、低精度ウェイト/アクティベーションに変換することを目的としている。
コンパクトに設計されたバックボーンアーキテクチャの極端量子化(1ビットの重み/1ビットのアクティベーション)は、深刻な性能劣化をもたらす。
本稿では,性能劣化を効果的に緩和する新しいQAT法を提案する。
論文 参考訳(メタデータ) (2022-07-04T13:25:49Z) - A Comprehensive Survey on Model Quantization for Deep Neural Networks in
Image Classification [0.0]
有望なアプローチは量子化であり、完全な精度の値は低ビット幅の精度で保存される。
本稿では、画像分類に焦点をあてて、量子化の概念と方法に関する包括的調査を行う。
本稿では,量子化DNNにおける浮動小数点演算の低コストなビット演算への置き換えと,量子化における異なる層の感度について説明する。
論文 参考訳(メタデータ) (2022-05-14T15:08:32Z) - Low-bit Quantization of Recurrent Neural Network Language Models Using
Alternating Direction Methods of Multipliers [67.688697838109]
本稿では、乗算器の交互方向法(ADMM)を用いて、スクラッチから量子化RNNLMを訓練する新しい手法を提案する。
2つのタスクの実験から、提案されたADMM量子化は、完全な精度ベースライン RNNLM で最大31倍のモデルサイズ圧縮係数を達成したことが示唆された。
論文 参考訳(メタデータ) (2021-11-29T09:30:06Z) - ECQ$^{\text{x}}$: Explainability-Driven Quantization for Low-Bit and
Sparse DNNs [13.446502051609036]
我々はディープニューラルネットワーク(DNN)のための新しい量子化パラダイムを開発し、記述する。
本手法は,説明可能なAI(XAI)の概念と情報理論の概念を活用する。
最終的な目標は、最高の情報内容の量子化クラスタにおいて、最も関連性の高い重みを維持することである。
論文 参考訳(メタデータ) (2021-09-09T12:57:06Z) - Where Should We Begin? A Low-Level Exploration of Weight Initialization
Impact on Quantized Behaviour of Deep Neural Networks [93.4221402881609]
異なる重みの初期化が重みの最終的な分布と異なるCNNアーキテクチャの活性化に与える影響について、詳細なアブレーション研究を行う。
我々の知る限りでは、ウェイトの初期化とその量子化行動に対する影響について、そのような低レベルで詳細な定量分析を行うのは、私たちは初めてである。
論文 参考訳(メタデータ) (2020-11-30T06:54:28Z) - Once Quantization-Aware Training: High Performance Extremely Low-bit
Architecture Search [112.05977301976613]
本稿では,ネットワークアーキテクチャ検索手法と量子化手法を組み合わせることで,両者のメリットを享受することを提案する。
まず、多数の量子化モデルを取得するために、共有ステップサイズでアーキテクチャと量子化の合同トレーニングを提案する。
次に、量子化されたモデルを低ビットに転送するためにビット継承方式を導入し、さらに時間コストを削減し、量子化精度を向上させる。
論文 参考訳(メタデータ) (2020-10-09T03:52:16Z) - Optimal Gradient Quantization Condition for Communication-Efficient
Distributed Training [99.42912552638168]
勾配の通信は、コンピュータビジョンアプリケーションで複数のデバイスでディープニューラルネットワークをトレーニングするのに費用がかかる。
本研究は,textbfANY勾配分布に対する二値および多値勾配量子化の最適条件を導出する。
最適条件に基づいて, 偏差BinGradと非偏差ORQの2値勾配量子化と多値勾配量子化の2つの新しい量子化手法を開発した。
論文 参考訳(メタデータ) (2020-02-25T18:28:39Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z) - SQWA: Stochastic Quantized Weight Averaging for Improving the
Generalization Capability of Low-Precision Deep Neural Networks [29.187848543158992]
我々は、新しい量子化ニューラルネットワーク最適化手法、量子化ウェイト平均化(SQWA)を提案する。
提案手法には、浮動小数点モデルのトレーニング、重みの直接量子化、複数の低精度モデルのキャプチャ、キャプチャーモデルの平均化、低学習率の微調整が含まれる。
SQWAトレーニングにより、CIFAR-100およびImageNetデータセット上の2ビットQDNNの最先端結果を得た。
論文 参考訳(メタデータ) (2020-02-02T07:02:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。