論文の概要: QSViT: A Methodology for Quantizing Spiking Vision Transformers
- arxiv url: http://arxiv.org/abs/2504.00948v1
- Date: Tue, 01 Apr 2025 16:34:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:26:04.521726
- Title: QSViT: A Methodology for Quantizing Spiking Vision Transformers
- Title(参考訳): QSViT:スパイキングビジョン変換器の量子化手法
- Authors: Rachmad Vidya Wicaksana Putra, Saad Iftikhar, Muhammad Shafique,
- Abstract要約: ビジョントランスフォーマー(ViT)ベースのモデルでは、ビジョンベースのAIタスクにおける最先端のパフォーマンス(精度など)が示されている。
しかし、リソースに制約のある組み込みAIシステムにおいて、その能力を実現することは、その固有の大きなメモリフットプリントのために困難である。
本稿では,SViTモデルを体系的な量子化戦略により圧縮する新しい設計手法であるQSViTを提案する。
- 参考スコア(独自算出の注目度): 5.343921650701002
- License:
- Abstract: Vision Transformer (ViT)-based models have shown state-of-the-art performance (e.g., accuracy) in vision-based AI tasks. However, realizing their capability in resource-constrained embedded AI systems is challenging due to their inherent large memory footprints and complex computations, thereby incurring high power/energy consumption. Recently, Spiking Vision Transformer (SViT)-based models have emerged as alternate low-power ViT networks. However, their large memory footprints still hinder their applicability for resource-constrained embedded AI systems. Therefore, there is a need for a methodology to compress SViT models without degrading the accuracy significantly. To address this, we propose QSViT, a novel design methodology to compress the SViT models through a systematic quantization strategy across different network layers. To do this, our QSViT employs several key steps: (1) investigating the impact of different precision levels in different network layers, (2) identifying the appropriate base quantization settings for guiding bit precision reduction, (3) performing a guided quantization strategy based on the base settings to select the appropriate quantization setting, and (4) developing an efficient quantized network based on the selected quantization setting. The experimental results demonstrate that, our QSViT methodology achieves 22.75% memory saving and 21.33% power saving, while also maintaining high accuracy within 2.1% from that of the original non-quantized SViT model on the ImageNet dataset. These results highlight the potential of QSViT methodology to pave the way toward the efficient SViT deployments on resource-constrained embedded AI systems.
- Abstract(参考訳): Vision Transformer(ViT)ベースのモデルでは、ビジョンベースのAIタスクにおける最先端のパフォーマンス(例えば精度)が示されている。
しかし、リソースに制約のある組み込みAIシステムにおいて、その能力を実現することは、それら固有の大きなメモリフットプリントと複雑な計算のために困難であり、それによって高電力/エネルギー消費が発生する。
近年、スパイキングビジョントランスフォーマー(SViT)ベースのモデルが、代替の低消費電力VTネットワークとして登場している。
しかし、彼らの大きなメモリフットプリントは、リソースに制約のある組み込みAIシステムの適用性を妨げている。
そのため,SViTモデルの精度を著しく低下させることなく,SViTモデルを圧縮する手法が必要である。
そこで本研究では,異なるネットワーク層にまたがる体系的量子化戦略により,SViTモデルを圧縮する新しい設計手法であるQSViTを提案する。
1)異なるネットワーク層における異なる精度レベルの影響を調査し,(2)ビット精度の低減を導くための適切なベース量子化設定を特定すること,(3)基本設定に基づいてガイド付き量子化戦略を実行して適切な量子化設定を選択すること,(4)選択した量子化設定に基づいて効率的な量子化ネットワークを開発すること,である。
実験結果から,当社のQSViT手法は22.75%のメモリ節約と21.33%の省電力を実現し,ImageNetデータセット上の元の非量子化SViTモデルから2.1%以内の精度を維持した。
これらの結果は、リソース制約された組み込みAIシステムにおける効率的なSViTデプロイメントへの道を開くQSViT方法論の可能性を強調している。
関連論文リスト
- Survey of Quantization Techniques for On-Device Vision-based Crack Detection [5.967661928760498]
構造的健康モニタリング(SHM)は、インフラの安全性と長寿を保証する。
UAVと組み合わせた視覚ベースの亀裂検出は、従来のセンサーベースのSHM手法の限界に対処する。
本研究では、MobileNetV1x0.25とMobileNetV2x0.5の2つの軽量畳み込みニューラルネットワークモデルを評価する。
論文 参考訳(メタデータ) (2025-02-04T12:29:29Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - AdaLog: Post-Training Quantization for Vision Transformers with Adaptive Logarithm Quantizer [54.713778961605115]
Vision Transformer (ViT) はコンピュータビジョンコミュニティにおいて最も普及しているバックボーンネットワークの1つである。
本稿では,AdaLog(Adaptive Logarithm AdaLog)量子化器を提案する。
論文 参考訳(メタデータ) (2024-07-17T18:38:48Z) - RLEEGNet: Integrating Brain-Computer Interfaces with Adaptive AI for
Intuitive Responsiveness and High-Accuracy Motor Imagery Classification [0.0]
本稿では,Deep Q-Networks (DQN) を用いた強化学習を分類タスクに活用するフレームワークを提案する。
本稿では,OVR(One-Versus-The-Rest)方式で,マルチクラス運動画像(MI)分類のための前処理手法を提案する。
DQNと1D-CNN-LSTMアーキテクチャの統合は意思決定プロセスをリアルタイムで最適化する。
論文 参考訳(メタデータ) (2024-02-09T02:03:13Z) - MPTQ-ViT: Mixed-Precision Post-Training Quantization for Vision
Transformer [7.041718444626999]
視覚変換器(MPTQ-ViT)のための混合精度後学習量子化フレームワークを提案する。
我々のViT,DeiT,Swinに関する実験では,ImageNetデータセットのSOTAと比較して精度が大幅に向上した。
論文 参考訳(メタデータ) (2024-01-26T14:25:15Z) - LRP-QViT: Mixed-Precision Vision Transformer Quantization via Layer-wise
Relevance Propagation [0.0]
LRP-QViTは、異なる層に混合精度のビット割り当てを割り当てる説明可能性に基づく手法である。
実験結果から,固定ビット・混合ビット後量子化法が既存の4ビット・6ビット量子化法を超越していることが判明した。
論文 参考訳(メタデータ) (2024-01-20T14:53:19Z) - I&S-ViT: An Inclusive & Stable Method for Pushing the Limit of Post-Training ViTs Quantization [49.17407185195788]
我々は,ViTのPTQを包括的かつ安定した方法で制御する新しい手法であるI&S-ViTを紹介する。
I&S-ViTは3ビットのViT-Bの性能を50.68%向上させた。
論文 参考訳(メタデータ) (2023-11-16T13:07:47Z) - Post-Training Quantization for Vision Transformer [85.57953732941101]
本稿では,視覚変換器のメモリ記憶量と計算コストを削減するための学習後量子化アルゴリズムを提案する。
約8ビット量子化を用いて、ImageNetデータセット上でDeiT-Bモデルを用いて81.29%のトップ-1の精度を得ることができる。
論文 参考訳(メタデータ) (2021-06-27T06:27:22Z) - Once Quantization-Aware Training: High Performance Extremely Low-bit
Architecture Search [112.05977301976613]
本稿では,ネットワークアーキテクチャ検索手法と量子化手法を組み合わせることで,両者のメリットを享受することを提案する。
まず、多数の量子化モデルを取得するために、共有ステップサイズでアーキテクチャと量子化の合同トレーニングを提案する。
次に、量子化されたモデルを低ビットに転送するためにビット継承方式を導入し、さらに時間コストを削減し、量子化精度を向上させる。
論文 参考訳(メタデータ) (2020-10-09T03:52:16Z) - DBQ: A Differentiable Branch Quantizer for Lightweight Deep Neural
Networks [4.358626952482686]
本稿では, 効率的な3成分系ドット製品エンジンにシームレスにマッピングできる新しい非一様量子化器を提案する。
提案する量子化器 (DBQ) は,MobileNetV1, MobileNetV2, ShuffleNetV2 などの軽量ネットワークを積極的に定量化するという,突進的な課題に対処する。
DBQは、トレーニングオーバーヘッドを最小限に抑えながら、最先端の成果を達成し、最適な(最適に最適化された)精度/複雑さのトレードオフを提供する。
論文 参考訳(メタデータ) (2020-07-19T23:50:09Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。