論文の概要: Customizing Number Representation and Precision
- arxiv url: http://arxiv.org/abs/2212.04184v1
- Date: Thu, 8 Dec 2022 10:54:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 16:44:27.160975
- Title: Customizing Number Representation and Precision
- Title(参考訳): 数値表現のカスタマイズと精度
- Authors: Olivier Sentieys (TARAN), Daniel Menard (INSA Rennes)
- Abstract要約: 算術において、実数の表現は大きな問題である。
固定点(FxP)と浮動小数点(FlP)は実数を表す主要な選択肢であり、その利点と欠点がある。
この章では、FxP と FlP の数値表現を示し、それらのコスト、性能、エネルギーを公平に比較する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a growing interest in the use of reduced-precision arithmetic,
exacerbated by the recent interest in artificial intelligence, especially with
deep learning. Most architectures already provide reduced-precision
capabilities (e.g., 8-bit integer, 16-bit floating point). In the context of
FPGAs, any number format and bit-width can even be considered.In computer
arithmetic, the representation of real numbers is a major issue. Fixed-point
(FxP) and floating-point (FlP) are the main options to represent reals, both
with their advantages and drawbacks. This chapter presents both FxP and FlP
number representations, and draws a fair a comparison between their cost,
performance and energy, as well as their impact on accuracy during
computations.It is shown that the choice between FxP and FlP is not obvious and
strongly depends on the application considered. In some cases, low-precision
floating-point arithmetic can be the most effective and provides some benefits
over the classical fixed-point choice for energy-constrained applications.
- Abstract(参考訳): 近年、人工知能、特にディープラーニングへの関心が高まっているため、精度の低い算術の使用に対する関心が高まっている。
ほとんどのアーキテクチャは、既に縮小精度(例:8ビット整数、16ビット浮動小数点)を提供している。
FPGAの文脈では、任意の数値形式とビット幅を考えることもできるが、計算機演算では、実数の表現が大きな問題である。
固定点(FxP)と浮動小数点(FlP)は実数を表す主要な選択肢であり、その利点と欠点がある。
本章では, FxP と FlP の数値表現について, コスト, 性能, エネルギーの比較, 計算中の精度への影響について述べるとともに, FxP と FlP の選択は明確ではなく, 考慮すべきアプリケーションに強く依存していることを示す。
場合によっては、低精度浮動小数点算術が最も効果的であり、エネルギー制約された応用に対する古典的な固定点選択よりもいくつかの利点がある。
関連論文リスト
- IntLoRA: Integral Low-rank Adaptation of Quantized Diffusion Models [68.55148272295916]
IntLoRAを提案し、整数型(INT)低ランクパラメータを用いて効率限界を押し上げ、量子化拡散モデルに適応させる。
IntLoRAには3つの大きな利点がある: (i) 微調整の場合、事前トレーニングされた重みは量子化され、メモリ使用量が減少する (ii) ストレージの場合、事前トレーニングされた重みと低ランクの重みの両方が、ディスクスペースを少なく消費するINT内にある; (iii) 推論の場合、IntLoRA重みは、効率的な整数乗算やビットシフトによって自然に量子化された事前トレーニングされた重みにマージできる。
論文 参考訳(メタデータ) (2024-10-29T05:50:17Z) - BitQ: Tailoring Block Floating Point Precision for Improved DNN Efficiency on Resource-Constrained Devices [14.536949788395837]
ブロック浮動小数点(BFP)量子化は、メモリと計算負荷を減らすための代表的な圧縮手法の1つである。
組込みプラットフォーム上でのDNN推論の最良のBFP実装のためのBFPベースのビット幅対応解析モデルフレームワーク(BitQ')を開発した。
論文 参考訳(メタデータ) (2024-09-25T17:03:49Z) - Floating-floating point: a highly accurate number representation with flexible Counting ranges [9.19134521360893]
本稿では,浮動小数点数である浮動小数点(F2P)について紹介する。
このような柔軟性は、選択したサブレンジに対する精度の向上と、大きなカウント範囲につながる。
論文 参考訳(メタデータ) (2024-09-22T18:52:13Z) - FFSplit: Split Feed-Forward Network For Optimizing Accuracy-Efficiency
Trade-off in Language Model Inference [57.119047493787185]
本稿では、異なるハードウェア上で、モデルサイズを43.1%削減し、1.25sim1.56times$wall clock time speedupを無視できる精度低下で実現する方法を示す。
実際、本手法では、異なるハードウェア上で、モデルサイズを43.1%削減し、1.25sim1.56Times$wall clock time speedupを無視できる精度で実現している。
論文 参考訳(メタデータ) (2024-01-08T17:29:16Z) - QUIK: Towards End-to-End 4-Bit Inference on Generative Large Language
Models [57.04178959678024]
重み付けとアクティベーションの両方を4ビットにキャストすることで、大きな生成モデルに対する推論計算の大部分が実行可能であることを示す。
これをQUIKと呼ばれるハイブリッド量子化戦略により実現し、重みとアクティベーションの大部分を4ビットに圧縮する。
我々は、QUIKフォーマットを高効率なレイヤワイドランタイムに適合させるGPUカーネルを提供し、これにより、エンドツーエンドのスループットが3.4倍に向上する。
論文 参考訳(メタデータ) (2023-10-13T17:15:05Z) - FP8 Quantization: The Power of the Exponent [19.179749424362686]
本稿では,ニューラルネットワーク推論における浮動小数点方式の利点について検討する。
我々はFP8フォーマットで選択できる選択について詳述し、マティーサと指数のビット数の重要な選択を含む。
これらの結果が実際のネットワークにどのように変換され、FP8シミュレーションの効率的な実装と新しいアルゴリズムが提供されるかを示す。
論文 参考訳(メタデータ) (2022-08-19T09:03:00Z) - Transformer-based Context Condensation for Boosting Feature Pyramids in
Object Detection [77.50110439560152]
現在の物体検出器は、通常マルチレベル特徴融合(MFF)のための特徴ピラミッド(FP)モジュールを持つ。
我々は,既存のFPがより優れたMFF結果を提供するのに役立つ,新しい,効率的なコンテキストモデリング機構を提案する。
特に,包括的文脈を2種類の表現に分解・凝縮して高効率化を図っている。
論文 参考訳(メタデータ) (2022-07-14T01:45:03Z) - Large-scale Optimization of Partial AUC in a Range of False Positive
Rates [51.12047280149546]
ROC曲線 (AUC) の下の領域は、機械学習において最も広く使われている分類モデルのパフォーマンス指標の1つである。
近年の封筒平滑化技術に基づく効率的な近似勾配降下法を開発した。
提案アルゴリズムは,効率のよい解法を欠くランク付けされた範囲損失の和を最小化するためにも利用できる。
論文 参考訳(メタデータ) (2022-03-03T03:46:18Z) - All-You-Can-Fit 8-Bit Flexible Floating-Point Format for Accurate and
Memory-Efficient Inference of Deep Neural Networks [2.294014185517203]
本稿では,非常にフレキシブルな8ビット浮動小数点 (FFP8) フォーマットを提案する。
複数の代表的な画像分類モデルに対して、0.1%sim 0.3%の極めて低い精度の損失を達成している。
古典的な浮動小数点処理ユニットをFFP8準拠のユニットに変えるのは簡単で、余分なハードウェアコストは小さい。
論文 参考訳(メタデータ) (2021-04-15T09:37:23Z) - ExPAN(N)D: Exploring Posits for Efficient Artificial Neural Network
Design in FPGA-based Systems [4.2612881037640085]
本稿では,ANNに対するポジット数表現方式の有効性と不動点演算の実装効率を解析し,比較する。
本稿では,ANNのための高性能かつ省エネなハードウェア実装を実現するための,新しい固定点変換器Posit to Fix-pointを提案する。
論文 参考訳(メタデータ) (2020-10-24T11:02:25Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。