論文の概要: Training with reduced precision of a support vector machine model for
text classification
- arxiv url: http://arxiv.org/abs/2007.08657v1
- Date: Fri, 17 Jul 2020 11:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 12:45:32.027030
- Title: Training with reduced precision of a support vector machine model for
text classification
- Title(参考訳): テキスト分類のためのサポートベクターマシンモデルの精度低減による学習
- Authors: Dominik \.Zurek and Marcin Pietro\'n
- Abstract要約: 本研究は, 縮小精度を用いて訓練したSVMモデルの効率性と, 原型との比較に重点を置いている。
量子化を使用する主な利点は、専用ハードウェアプラットフォームにおける計算時間とメモリフットプリントの削減である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents the impact of using quantization on the efficiency of
multi-class text classification in the training process of a support vector
machine (SVM). This work is focused on comparing the efficiency of SVM model
trained using reduced precision with its original form. The main advantage of
using quantization is decrease in computation time and in memory footprint on
the dedicated hardware platform which supports low precision computation like
GPU (16-bit) or FPGA (any bit-width). The paper presents the impact of a
precision reduction of the SVM training process on text classification
accuracy. The implementation of the CPU was performed using the OpenMP library.
Additionally, the results of the implementation of the GPU using double, single
and half precision are presented.
- Abstract(参考訳): 本稿では,サポートベクターマシン(svm)の学習過程におけるマルチクラステキスト分類の効率性に量子化が与える影響について述べる。
本研究は, 縮小精度を用いて訓練したSVMモデルの効率性と, 原型との比較に焦点を当てた。
量子化を使用する主な利点は、GPU(16ビット)やFPGA(ビット幅)のような低精度の計算をサポートする専用ハードウェアプラットフォームの計算時間とメモリフットプリントの削減である。
本稿では,SVM学習過程の高精度化がテキスト分類精度に及ぼす影響について述べる。
CPUの実装はOpenMPライブラリを使用して行われた。
さらに、倍精度、単精度、半精度を用いたGPUの実装結果を示す。
関連論文リスト
- Scalify: scale propagation for efficient low-precision LLM training [1.4999444543328293]
float8のような低精度のフォーマットが機械学習アクセラレーションハードウェアに導入され、大規模言語モデルのトレーニングと推論の計算効率が向上した。
本稿では,計算グラフのためのエンドツーエンドのスケール伝搬パラダイムであるScalifyを提案する。
論文 参考訳(メタデータ) (2024-07-24T15:26:01Z) - On-Chip Hardware-Aware Quantization for Mixed Precision Neural Networks [52.97107229149988]
エッジデバイス上でハードウェア対応の混合精度量子化を行うOn-Chipハードウェア・アウェア量子化フレームワークを提案する。
このパイプラインは、量子化プロセスが量子化演算子の実際のハードウェア効率を知覚することを可能にする。
精度測定のために,マルチチップシナリオにおける演算子の精度への影響を効果的に推定するMask-Guided Quantization Estimation技術を提案する。
論文 参考訳(メタデータ) (2023-09-05T04:39:34Z) - DeepGEMM: Accelerated Ultra Low-Precision Inference on CPU Architectures
using Lookup Tables [49.965024476651706]
DeepGEMMはSIMDハードウェア上で超高精度畳み込みニューラルネットワークを実行するためのルックアップテーブルベースのアプローチである。
実装は、x86プラットフォーム上で、対応する8ビット整数カーネルを最大1.74倍の性能で上回る。
論文 参考訳(メタデータ) (2023-04-18T15:13:10Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - LUT-GEMM: Quantized Matrix Multiplication based on LUTs for Efficient Inference in Large-Scale Generative Language Models [9.727062803700264]
量子化行列乗算のための効率的なカーネルであるLUT-GEMMを紹介する。
LUT-GEMMは資源集約化プロセスを取り除き、計算コストを削減する。
我々は,3ビット量子化を用いたOPT-175Bモデルに適用した場合,LUT-GEMMはトークン生成遅延を大幅に高速化することを示した。
論文 参考訳(メタデータ) (2022-06-20T03:48:17Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - FBGEMM: Enabling High-Performance Low-Precision Deep Learning Inference [1.1292678337479967]
fbgemmは、次世代cpuの高性能量子化推論のための高性能カーネルライブラリである。
fbgemmは、高速なgem実装で共通量子化演算を融合させ、実行時に形状およびサイズ固有のカーネルコード生成によって効率を向上する。
このライブラリはfacebookにデプロイされ、現在のプロダクションベースラインの2倍以上のパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2021-01-13T00:34:04Z) - MC-BERT: Efficient Language Pre-Training via a Meta Controller [96.68140474547602]
大規模事前学習は計算コストが高い。
事前トレーニングを加速する初期の試みであるELECTRAは、各入力トークンがジェネレータに置き換えられたかどうかを予測する識別モデルを訓練している。
本稿では,MC-BERTというメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T09:22:19Z) - Accelerating Neural Network Inference by Overflow Aware Quantization [16.673051600608535]
ディープニューラルネットワークの重計算を継承することで、その広範な応用が防げる。
トレーニング可能な適応的不動点表現を設計し,オーバーフローを考慮した量子化手法を提案する。
提案手法により,量子化損失を最小限に抑え,最適化された推論性能を得ることができる。
論文 参考訳(メタデータ) (2020-05-27T11:56:22Z) - On Coresets for Support Vector Machines [61.928187390362176]
coresetは、元のデータポイントの小さな、代表的なサブセットである。
我々は,本アルゴリズムを用いて,既製のSVMソルバをストリーミング,分散,動的データ設定に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-02-15T23:25:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。