論文の概要: Block Format Error Bounds and Optimal Block Size Selection
- arxiv url: http://arxiv.org/abs/2210.05470v1
- Date: Tue, 11 Oct 2022 14:15:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 17:58:33.754520
- Title: Block Format Error Bounds and Optimal Block Size Selection
- Title(参考訳): ブロックフォーマットエラー境界と最適ブロックサイズ選択
- Authors: Ilya Soloveychik, Ilya Lyubomirsky, Xin Wang and Sudeep Bhoja
- Abstract要約: ここで最も期待され、急速に進歩しているフロンティアの1つは、新しいデータフォーマットの作成である。
本稿では, 数値演算を用いた内部積の動的範囲, 数値的精度, 効率的なハードウェア実装の組み合わせにより, ブロック浮動小数点数値形式に焦点をあてる。
- 参考スコア(独自算出の注目度): 7.056118133284956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The amounts of data that need to be transmitted, processed, and stored by the
modern deep neural networks have reached truly enormous volumes in the last few
years calling for the invention of new paradigms both in hardware and software
development. One of the most promising and rapidly advancing frontiers here is
the creation of new data formats. In this work we focus on the family of block
floating point numerical formats due to their combination of wide dynamic
range, numerical accuracy, and efficient hardware implementation of inner
products using simple integer arithmetic. These formats are characterized by a
block of mantissas with a shared scale factor. The basic Block Floating Point
(BFP) format quantizes the block scales into the nearest powers of two on the
right. Its simple modification - Scaled BFP (SBFP) - stores the same scales in
full precision and thus allows higher accuracy. In this paper, we study the
statistical behavior of both these formats rigorously. We develop asymptotic
bounds on the inner product error in SBFP- and BFP-quantized normally
distributed vectors. Next, we refine those asymptotic results to finite
dimensional settings and derive high-dimensional tight bounds for the same
errors. Based on the obtained results we introduce a performance metric
assessing accuracy of any block format. This metric allows us to determine the
optimal parameters, such as the block size, yielding highest accuracy. In
particular, we show that if the precision of the BFP format is fixed at 4 bits,
the optimal block size becomes 64. All theoretical derivations are supported by
numerical experiments and studies on the weights of publicly available
pretrained neural networks.
- Abstract(参考訳): 現代のディープニューラルネットワークによって送信され、処理され、保存される必要のあるデータの量は、ハードウェアとソフトウェア開発の両方における新しいパラダイムの発明を求めて、ここ数年で本当に膨大な量に達している。
ここでもっとも有望で急速に進歩しているフロンティアの1つは、新しいデータフォーマットの作成である。
本研究は, ブロック浮動小数点数値形式を, 広ダイナミックレンジ, 数値的精度, 単純整数算術を用いた内部積の効率的なハードウェア実装の組み合わせによって構成する。
これらの形式は、共有スケール係数を持つマティーサのブロックによって特徴づけられる。
基本ブロック浮動小数点(BFP)フォーマットは、ブロックスケールを右の2つの最寄りのパワーに量子化する。
その単純な修正 - Scaled BFP (SBFP) - 同じスケールを完全な精度で保存し、より高い精度を実現する。
本稿では,これらの形式の統計的挙動を厳密に研究する。
SBFP-およびBFP-量子化正規分布ベクトルにおける内積誤差の漸近境界を開発する。
次に、これらの漸近結果を有限次元の設定に洗練し、同じ誤差に対して高次元の厳密な境界を導出する。
得られた結果に基づいて,任意のブロックフォーマットの精度を評価する性能指標を提案する。
このメトリックにより、ブロックサイズなどの最適なパラメータを決定でき、最高の精度が得られる。
特に、bfpフォーマットの精度が4ビットで固定されると、最適なブロックサイズが64になることを示す。
すべての理論的な導出は、公開訓練済みニューラルネットワークの重み付けに関する数値実験と研究によって支持されている。
関連論文リスト
- BitQ: Tailoring Block Floating Point Precision for Improved DNN Efficiency on Resource-Constrained Devices [14.536949788395837]
ブロック浮動小数点(BFP)量子化は、メモリと計算負荷を減らすための代表的な圧縮手法の1つである。
組込みプラットフォーム上でのDNN推論の最良のBFP実装のためのBFPベースのビット幅対応解析モデルフレームワーク(BitQ')を開発した。
論文 参考訳(メタデータ) (2024-09-25T17:03:49Z) - WiNet: Wavelet-based Incremental Learning for Efficient Medical Image Registration [68.25711405944239]
深部画像登録は異常な精度と高速な推測を示した。
近年の進歩は、粗大から粗大の方法で密度変形場を推定するために、複数のカスケードまたはピラミッドアーキテクチャを採用している。
本稿では,様々なスケールにわたる変位/速度場に対して,スケールワイブレット係数を漸進的に推定するモデル駆動WiNetを提案する。
論文 参考訳(メタデータ) (2024-07-18T11:51:01Z) - Accurate Block Quantization in LLMs with Outliers [0.6138671548064355]
極大規模LLMの推理需要はここ数カ月で大きく伸びている。
この問題は処理中のシーケンスの長さが爆発的に増加することで増大する。
重みとアクティベーションの両方の正確な量子化を可能にする様々な量子化技術が提案されている。
論文 参考訳(メタデータ) (2024-03-29T12:15:06Z) - Shedding the Bits: Pushing the Boundaries of Quantization with Minifloats on FPGAs [39.410068572891475]
後トレーニング量子化(PTQ)はモデル圧縮の強力な技術であり、追加のトレーニングオーバーヘッドなしにニューラルネットワークの数値精度を低下させる。
近年,モデル推論におけるPTQの文脈における8ビット浮動小数点形式(FP8)の適用について検討している。
本稿では,モデルのメモリフットプリント,レイテンシ,エネルギーコストをさらに削減できる,精度の低い浮動小数点形状のミニフロートを提案する。
論文 参考訳(メタデータ) (2023-11-21T05:27:16Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - The case for 4-bit precision: k-bit Inference Scaling Laws [75.4335600212427]
量子化法は、モデル内の各パラメータを表すために必要なビット数を減少させる。
最終的なモデルサイズは、元のモデルのパラメータの数と圧縮率の両方に依存する。
我々は16ビットの入力とkビットのパラメータを持つ35,000以上のゼロショット実験を行い、どの量子化手法が3ビットから8ビットの精度でスケーリングを改善するかを検証した。
論文 参考訳(メタデータ) (2022-12-19T18:48:33Z) - 8-bit Optimizers via Block-wise Quantization [57.25800395197516]
ステートフルズは、例えば過去の値の指数的滑らかな和(運動量付きSGD)や2乗和(アダム)など、時間の経過とともに統計を維持している。
この状態は、通常の勾配降下よりも最適化を加速するために使用することができるが、そうでなければモデルパラメータに割り当てられる可能性のあるメモリを使用する。
本稿では,32ビットの勾配状態を用いた場合の性能レベルを維持しながら,8ビット統計を用いた第1次勾配法を開発する。
論文 参考訳(メタデータ) (2021-10-06T15:43:20Z) - All-You-Can-Fit 8-Bit Flexible Floating-Point Format for Accurate and
Memory-Efficient Inference of Deep Neural Networks [2.294014185517203]
本稿では,非常にフレキシブルな8ビット浮動小数点 (FFP8) フォーマットを提案する。
複数の代表的な画像分類モデルに対して、0.1%sim 0.3%の極めて低い精度の損失を達成している。
古典的な浮動小数点処理ユニットをFFP8準拠のユニットに変えるのは簡単で、余分なハードウェアコストは小さい。
論文 参考訳(メタデータ) (2021-04-15T09:37:23Z) - I-BERT: Integer-only BERT Quantization [78.43819756382103]
トランスフォーマーモデルのための新しい量子化手法であるI-BERTを提案する。
I-BERTは浮動小数点演算なしでエンドツーエンドの整数のみのBERT推論を実行する。
いずれの場合も,I-BERTは全精度ベースラインと同等(かつ若干高い)精度が得られた。
論文 参考訳(メタデータ) (2021-01-05T02:42:58Z) - Bayesian Bits: Unifying Quantization and Pruning [73.27732135853243]
我々は、勾配に基づく最適化による混合精度量子化とプルーニングの実用的な方法であるBayesian Bitsを紹介する。
提案手法をいくつかのベンチマーク・データセット上で実験的に検証し,プレナード付き混合精度ネットワークを学習可能であることを示す。
論文 参考訳(メタデータ) (2020-05-14T16:00:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。