論文の概要: Quantization Robustness to Input Degradations for Object Detection
- arxiv url: http://arxiv.org/abs/2508.19600v1
- Date: Wed, 27 Aug 2025 06:20:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.517227
- Title: Quantization Robustness to Input Degradations for Object Detection
- Title(参考訳): 物体検出のための入力劣化に対する量子化ロバスト性
- Authors: Toghrul Karimov, Hassan Imani, Allan Kazakov,
- Abstract要約: トレーニング後の量子化(PTQ)は、リソース制約のあるデバイスに、YOLOのような効率的なオブジェクト検出モデルをデプロイするために不可欠である。
モデルロバスト性に対する精度低下の影響は、ノイズ、ぼかし、圧縮アーティファクトなどの実世界の入力劣化に大きく影響する。
本稿では,複数の精度のフォーマットにまたがるYOLOモデルのロバスト性を評価する実験的検討を行った。
- 参考スコア(独自算出の注目度): 2.0901018134712297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Post-training quantization (PTQ) is crucial for deploying efficient object detection models, like YOLO, on resource-constrained devices. However, the impact of reduced precision on model robustness to real-world input degradations such as noise, blur, and compression artifacts is a significant concern. This paper presents a comprehensive empirical study evaluating the robustness of YOLO models (nano to extra-large scales) across multiple precision formats: FP32, FP16 (TensorRT), Dynamic UINT8 (ONNX), and Static INT8 (TensorRT). We introduce and evaluate a degradation-aware calibration strategy for Static INT8 PTQ, where the TensorRT calibration process is exposed to a mix of clean and synthetically degraded images. Models were benchmarked on the COCO dataset under seven distinct degradation conditions (including various types and levels of noise, blur, low contrast, and JPEG compression) and a mixed-degradation scenario. Results indicate that while Static INT8 TensorRT engines offer substantial speedups (~1.5-3.3x) with a moderate accuracy drop (~3-7% mAP50-95) on clean data, the proposed degradation-aware calibration did not yield consistent, broad improvements in robustness over standard clean-data calibration across most models and degradations. A notable exception was observed for larger model scales under specific noise conditions, suggesting model capacity may influence the efficacy of this calibration approach. These findings highlight the challenges in enhancing PTQ robustness and provide insights for deploying quantized detectors in uncontrolled environments. All code and evaluation tables are available at https://github.com/AllanK24/QRID.
- Abstract(参考訳): トレーニング後の量子化(PTQ)は、リソース制約のあるデバイスに、YOLOのような効率的なオブジェクト検出モデルをデプロイするために不可欠である。
しかし、精度の低下がノイズ、ぼかし、圧縮品などの実世界の入力劣化に対するモデルロバスト性に与える影響は大きな懸念事項である。
本稿では,FP32, FP16 (TensorRT), Dynamic UINT8 (ONNX), Static INT8 (TensorRT) の複数の精度フォーマットにおけるYOLOモデルのロバスト性を評価するための総合的研究を行った。
我々は,tensorRTキャリブレーションプロセスがクリーンかつ合成的に劣化した画像に露出する静的INT8 PTQに対して,分解性を考慮したキャリブレーション戦略を導入,評価する。
モデルは、COCOデータセット上で7つの異なる劣化条件(様々な種類のノイズ、ボケ、低コントラスト、JPEG圧縮を含む)と混合劣化シナリオでベンチマークされた。
その結果、静的INT8 TensorRTエンジンは、清潔なデータに対して適度な精度の低下(約3-7% mAP50-95)を持つ実質的なスピードアップ(~1.5-3.3x)を提供するが、提案された劣化認識キャリブレーションは、ほとんどのモデルと分解における標準的なクリーンデータキャリブレーションよりも、一貫性があり、ロバスト性の向上は得られなかった。
特定の雑音条件下でのモデルスケールに対して顕著な例外が見られ、モデルキャパシティがこのキャリブレーション手法の有効性に影響を及ぼす可能性が示唆された。
これらの知見はPTQのロバスト性を高める上での課題と、制御されていない環境に量子化検出器を配置するための洞察を提供する。
すべてのコードと評価表はhttps://github.com/AllanK24/QRIDで入手できる。
関連論文リスト
- HierarchicalPrune: Position-Aware Compression for Large-Scale Diffusion Models [15.143674484507251]
本稿では,鍵となる観測を基礎とした新しい圧縮フレームワークであるHierarchicalPruneを紹介する。
DMブロックは異なる機能的階層を示し、初期のブロックはセマンティック構造を確立し、後のブロックはテクスチャの洗練を扱う。
我々のフレームワークは、出力画像の品質を保ちながら、デバイス上の推論に適した範囲に数十億の拡散モデルをもたらす。
論文 参考訳(メタデータ) (2025-08-06T17:30:44Z) - DFQ-ViT: Data-Free Quantization for Vision Transformers without Fine-tuning [9.221916791064407]
データフリー量子化(DFQ)は、データへのアクセスを必要とせずにビジョントランスフォーマー(ViT)の量子化を可能にし、限られたリソースを持つデバイスにViTをデプロイすることを可能にする。
既存の手法では、サンプル内のグローバルな特徴とローカルな特徴を完全にキャプチャしてバランスをとることができず、結果として合成データの品質が制限される。
視覚変換用データフリー量子化パイプライン(DFQ-ViT)を提案する。
論文 参考訳(メタデータ) (2025-07-19T04:32:04Z) - QuantTune: Optimizing Model Quantization with Adaptive Outlier-Driven
Fine Tuning [16.50084447690437]
この研究は、これらの精度低下の原因を明らかにし、量子化フレンドリな微調整法である textbfQuantTune を提案している。
提案手法は, ViT, Bert-base, OPT など,トランスフォーマーベースモデルにおけるポストトレーニング量子化の大幅な改善を示す。
論文 参考訳(メタデータ) (2024-03-11T08:09:30Z) - Post-training Quantization for Text-to-Image Diffusion Models with Progressive Calibration and Activation Relaxing [49.800746112114375]
本稿では,テキスト・画像拡散モデルのための学習後量子化手法(プログレッシブ・アンド・リラクシング)を提案する。
我々は,安定拡散XLの量子化を初めて達成し,その性能を維持した。
論文 参考訳(メタデータ) (2023-11-10T09:10:09Z) - CrAM: A Compression-Aware Minimizer [103.29159003723815]
本稿では、CrAMと呼ばれる新しい圧縮対応最小化器を提案し、最適化ステップを原則的に修正する。
CrAMは、標準のSGD/アダムベースベースラインよりも精度が高い密度のモデルを生成するが、重量計算では安定である。
CrAMは、転送学習のためにうまく機能するスパースモデルを生成することができ、GPUハードウェアでサポートされている半構造化の2:4プルーニングパターンでも機能する。
論文 参考訳(メタデータ) (2022-07-28T16:13:28Z) - Deep Learning-Based Defect Classification and Detection in SEM Images [1.9206693386750882]
特に、異なるResNet、VGGNetアーキテクチャをバックボーンとして使用するRetinaNetモデルをトレーニングする。
そこで本研究では,異なるモデルからの出力予測を組み合わせることで,欠陥の分類と検出に優れた性能を実現するための選好に基づくアンサンブル戦略を提案する。
論文 参考訳(メタデータ) (2022-06-20T16:34:11Z) - Designing a Practical Degradation Model for Deep Blind Image
Super-Resolution [134.9023380383406]
単一画像スーパーレゾリューション (sisr) 法は, 推定劣化モデルが実画像から逸脱した場合はうまく動作しない。
本稿では, ランダムにシャッフルされたブラー, ダウンサンプリング, ノイズ劣化からなる, より複雑で実用的な劣化モデルを提案する。
論文 参考訳(メタデータ) (2021-03-25T17:40:53Z) - Robustness in Compressed Neural Networks for Object Detection [2.9823962001574182]
圧縮されたモデルの異なる歪みタイプに対する感度はニュアンス化されている。
いくつかの汚職は圧縮法に大きく影響している。
データ拡張はモデルの堅牢性に肯定的な影響を与えることが確認された。
論文 参考訳(メタデータ) (2021-02-10T15:52:11Z) - From Sound Representation to Model Robustness [82.21746840893658]
本研究では, 環境音の標準的な表現(スペクトログラム)が, 被害者の残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
3つの環境音響データセットの様々な実験から、ResNet-18モデルは、他のディープラーニングアーキテクチャよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-27T17:30:49Z) - Training with Quantization Noise for Extreme Model Compression [57.51832088938618]
与えられたモデルサイズに対する精度を最大化しながら、コンパクトなモデルを作成するという問題に取り組む。
標準的な解決策は、トレーニング中に重みが定量化され、勾配がストレート・スルー推定器に近似される量子化意識訓練(Quantization Aware Training)でネットワークをトレーニングすることである。
本稿では, この手法を, 極端な圧縮法を用いて, int8 の固定点量子化を超えて機能するように拡張する。
論文 参考訳(メタデータ) (2020-04-15T20:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。