論文の概要: Fixflow: A Framework to Evaluate Fixed-point Arithmetic in Light-Weight
CNN Inference
- arxiv url: http://arxiv.org/abs/2302.09564v1
- Date: Sun, 19 Feb 2023 12:48:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 17:51:07.527658
- Title: Fixflow: A Framework to Evaluate Fixed-point Arithmetic in Light-Weight
CNN Inference
- Title(参考訳): Fixflow: 軽量CNN推論における固定点算術的評価フレームワーク
- Authors: Farhad Taheri, Siavash Bayat-Sarmadi, Hatame Mosanaei-Boorani and Reza
Taheri
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、IoTアプリケーションのリソース制約されたデバイスで広く利用されている。
本稿では,異なる固定点ハードウェアユニットがCNN推定精度に与える影響について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks (CNN) are widely used in resource-constrained
devices in IoT applications. In order to reduce the computational complexity
and memory footprint, the resource-constrained devices use fixed-point
representation. This representation consumes less area and energy in hardware
with similar classification accuracy compared to the floating-point ones.
However, to employ the low-precision fixed-point representation, various
considerations to gain high accuracy are required. Although many quantization
and re-training techniques are proposed to improve the inference accuracy,
these approaches are time-consuming and require access to the entire dataset.
This paper investigates the effect of different fixed-point hardware units on
CNN inference accuracy. To this end, we provide a framework called Fixflow to
evaluate the effect of fixed-point computations performed at hardware level on
CNN classification accuracy. We can employ different fixed-point considerations
at the hardware accelerators.This includes rounding methods and adjusting the
precision of the fixed-point operation's result. Fixflow can determine the
impact of employing different arithmetic units (such as truncated multipliers)
on CNN classification accuracy. Moreover, we evaluate the energy and area
consumption of these units in hardware accelerators. We perform experiments on
two common MNIST and CIFAR-10 datasets. Our results show that employing
different methods at the hardware level specially with low-precision, can
significantly change the classification accuracy.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、IoTアプリケーションのリソース制約されたデバイスで広く利用されている。
計算の複雑さとメモリフットプリントを減らすために、リソース制約のあるデバイスは固定ポイント表現を使用する。
この表現は浮動小数点数と同等の分類精度でハードウェアの面積とエネルギーを消費する。
しかし,低精度の固定点表現を用いるためには,高精度化のための様々な考察が必要である。
推論精度を改善するために多くの量子化と再学習技術が提案されているが、これらのアプローチは時間がかかり、データセット全体にアクセスする必要がある。
本稿では,異なる固定点ハードウェアユニットがCNN推定精度に与える影響について検討する。
そこで本研究では,ハードウェアレベルでの固定点演算がcnn分類精度に与える影響を評価するためにfixflowというフレームワークを提案する。
ハードウェアアクセラレータでは, ラウンドリング法や固定点演算結果の精度の調整など, 異なる固定点考慮を適用できる。
Fixflowは、異なる算術単位(truncated multipliersなど)がCNN分類精度に与える影響を決定することができる。
さらに,これらのユニットのエネルギー消費と面積をハードウェアアクセラレーターで評価する。
2つの共通mnistとcifar-10データセットで実験を行った。
その結果,ハードウェアレベルでの異なる手法を特に低精度で採用することで,分類精度を大きく変化させることができることがわかった。
関連論文リスト
- Low-Precision Floating-Point for Efficient On-Board Deep Neural Network
Processing [0.9374652839580183]
本研究では,低精度(ミニ)浮動小数点演算と量子化学習法を組み合わせる方法について検討する。
その結果,6ビット浮動小数点量子化は重みとアクティベーションの両方において単一精度と競合できることがわかった。
初期のハードウェア研究は、そのような低精度浮動小数点設計の潜在的影響も確認した。
論文 参考訳(メタデータ) (2023-11-18T21:36:52Z) - Cal-DETR: Calibrated Detection Transformer [67.75361289429013]
本稿では,Deformable-DETR,UP-DETR,DINOのキャリブレーション検出トランス(Cal-DETR)のメカニズムを提案する。
我々は、不確実性を利用してクラスロジットを変調する不確実性誘導ロジット変調機構を開発する。
その結果、Cal-DETRは、ドメイン内およびドメイン外の両方を校正する競合する列車時間法に対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-11-06T22:13:10Z) - Task-Oriented Over-the-Air Computation for Multi-Device Edge AI [57.50247872182593]
エッジAIをサポートするための6Gネットワークは、AIタスクの効率的かつ効率的な実行に焦点を当てたタスク指向のテクニックを備えている。
本稿では,マルチデバイススプリット推論システムにおけるタスク指向オーバー・ザ・エア計算(AirComp)方式を提案する。
論文 参考訳(メタデータ) (2022-11-02T16:35:14Z) - Green, Quantized Federated Learning over Wireless Networks: An
Energy-Efficient Design [68.86220939532373]
有限精度レベルは、固定精度フォーマットで重みとアクティベーションを定量化する量子ニューラルネットワーク(QNN)を使用して取得される。
提案するFLフレームワークは,ベースラインFLアルゴリズムと比較して,収束までのエネルギー消費量を最大70%削減することができる。
論文 参考訳(メタデータ) (2022-07-19T16:37:24Z) - AMED: Automatic Mixed-Precision Quantization for Edge Devices [3.5223695602582614]
量子ニューラルネットワークは、レイテンシ、消費電力、モデルサイズをパフォーマンスに大きな影響を与えずに減少させることでよく知られている。
混合精度量子化は、異なるビット幅での算術演算をサポートするカスタマイズされたハードウェアのより良い利用を提供する。
論文 参考訳(メタデータ) (2022-05-30T21:23:22Z) - FxP-QNet: A Post-Training Quantizer for the Design of Mixed
Low-Precision DNNs with Dynamic Fixed-Point Representation [2.4149105714758545]
我々は、ディープニューラルネットワーク(FxP-QNet)の固定点量子化器(FixP-QNet)と呼ばれる新しいフレームワークを提案する。
FxP-QNetは、ネットワーク精度と低精度要求との間のトレードオフに基づいて、各レイヤのデータ構造ごとに量子化レベルを適用する。
その結果、FxP-QNet量子化されたAlexNet、VGG-16、ResNet-18は、全精度のメモリ要求を0.95%未満の7.16x、10.36x、6.44x、1.99%削減した。
論文 参考訳(メタデータ) (2022-03-22T23:01:43Z) - ZippyPoint: Fast Interest Point Detection, Description, and Matching
through Mixed Precision Discretization [71.91942002659795]
我々は,ネットワーク量子化技術を用いて推論を高速化し,計算限定プラットフォームでの利用を可能にする。
バイナリディスクリプタを用いた効率的な量子化ネットワークZippyPointは,ネットワーク実行速度,ディスクリプタマッチング速度,3Dモデルサイズを改善する。
これらの改善は、ホモグラフィー推定、視覚的ローカライゼーション、マップフリーな視覚的再ローカライゼーションのタスクで評価されるように、小さなパフォーマンス劣化をもたらす。
論文 参考訳(メタデータ) (2022-03-07T18:59:03Z) - On the Tradeoff between Energy, Precision, and Accuracy in Federated
Quantized Neural Networks [68.52621234990728]
無線ネットワーク上でのフェデレーション学習(FL)は、精度、エネルギー効率、精度のバランスをとる必要がある。
本稿では,ローカルトレーニングとアップリンク伝送の両方において,有限レベルの精度でデータを表現できる量子化FLフレームワークを提案する。
我々のフレームワークは標準的なFLモデルと比較してエネルギー消費量を最大53%削減できる。
論文 参考訳(メタデータ) (2021-11-15T17:00:03Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z) - Accelerating Neural Network Inference by Overflow Aware Quantization [16.673051600608535]
ディープニューラルネットワークの重計算を継承することで、その広範な応用が防げる。
トレーニング可能な適応的不動点表現を設計し,オーバーフローを考慮した量子化手法を提案する。
提案手法により,量子化損失を最小限に抑え,最適化された推論性能を得ることができる。
論文 参考訳(メタデータ) (2020-05-27T11:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。