論文の概要: Q-DETR: An Efficient Low-Bit Quantized Detection Transformer
- arxiv url: http://arxiv.org/abs/2304.00253v1
- Date: Sat, 1 Apr 2023 08:05:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 19:04:24.952493
- Title: Q-DETR: An Efficient Low-Bit Quantized Detection Transformer
- Title(参考訳): Q-DETR:高効率低ビット量子化検出変換器
- Authors: Sheng Xu, Yanjing Li, Mingbao Lin, Peng Gao, Guodong Guo, Jinhu Lu,
Baochang Zhang
- Abstract要約: Q-DETRのボトルネックは、我々の経験的分析によるクエリ情報の歪みから生じる。
情報ボトルネック(IB)の原理をQ-DETRの学習に一般化することで導出できる2レベル最適化問題としてDRDを定式化する。
本研究では,教師情報を蒸留所要の機能に効果的に転送し,条件情報エントロピーを最小化する,フォアグラウンド対応クエリマッチング手法を提案する。
- 参考スコア(独自算出の注目度): 50.00784028552792
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent detection transformer (DETR) has advanced object detection, but
its application on resource-constrained devices requires massive computation
and memory resources. Quantization stands out as a solution by representing the
network in low-bit parameters and operations. However, there is a significant
performance drop when performing low-bit quantized DETR (Q-DETR) with existing
quantization methods. We find that the bottlenecks of Q-DETR come from the
query information distortion through our empirical analyses. This paper
addresses this problem based on a distribution rectification distillation
(DRD). We formulate our DRD as a bi-level optimization problem, which can be
derived by generalizing the information bottleneck (IB) principle to the
learning of Q-DETR. At the inner level, we conduct a distribution alignment for
the queries to maximize the self-information entropy. At the upper level, we
introduce a new foreground-aware query matching scheme to effectively transfer
the teacher information to distillation-desired features to minimize the
conditional information entropy. Extensive experimental results show that our
method performs much better than prior arts. For example, the 4-bit Q-DETR can
theoretically accelerate DETR with ResNet-50 backbone by 6.6x and achieve 39.4%
AP, with only 2.6% performance gaps than its real-valued counterpart on the
COCO dataset.
- Abstract(参考訳): 最近の検出変換器(DETR)は高度なオブジェクト検出機能を備えているが、リソース制約のあるデバイスに応用するには膨大な計算とメモリ資源が必要である。
量子化は、低ビットパラメータと演算でネットワークを表現することで、ソリューションとして際立っている。
しかし、既存の量子化手法で低ビット量子化DETR(Q-DETR)を実行する場合、大きな性能低下がある。
Q-DETRのボトルネックは、我々の経験的分析によるクエリ情報の歪みから生じる。
本稿では, 分布補正蒸留(DRD)に基づいてこの問題に対処する。
情報ボトルネック(IB)の原理をQ-DETRの学習に一般化することで導出できる2レベル最適化問題としてDRDを定式化する。
内部レベルでは,自己情報エントロピーを最大化するために,クエリの分散アライメントを行う。
上層部では,教師情報を蒸留所要の特徴に効果的に伝達し,条件情報エントロピーを最小化する,新しい前景対応クエリマッチング方式を導入する。
実験結果から,本手法は先行技術よりも優れた性能を示した。
例えば、4ビットQ-DETRは理論上、ResNet-50のバックボーンでDETRを6.6倍加速し、39.4%のAPを達成した。
関連論文リスト
- ADFQ-ViT: Activation-Distribution-Friendly Post-Training Quantization for Vision Transformers [7.155242379236052]
ビジョントランスフォーマー(ViT)の量子化は、これらの課題を緩和するための有望なソリューションとして現れている。
既存の手法は依然として低ビットでの精度の低下に悩まされている。
ADFQ-ViTは、画像分類、オブジェクト検出、および4ビットでのインスタンスセグメンテーションタスクにおいて、様々なベースラインを大幅に改善する。
論文 参考訳(メタデータ) (2024-07-03T02:41:59Z) - Salience DETR: Enhancing Detection Transformer with Hierarchical Salience Filtering Refinement [19.277560848076984]
2段階の選択戦略は、選択したクエリとオブジェクトのミスマッチによるスケールバイアスと冗長性をもたらす。
本稿では,フィルタされた識別クエリのみにトランスフォーマーを符号化する階層型サリエンスフィルタリング精細化を提案する。
提案されたSalience DETRは、課題固有の3つのデータセットに対して、+4.0% AP、+0.2% AP、+4.4% APを大幅に改善する。
論文 参考訳(メタデータ) (2024-03-24T13:01:57Z) - Align-DETR: Improving DETR with Simple IoU-aware BCE loss [32.13866392998818]
そこで本稿では, 誤り訂正問題を定量的に評価するために, ベストレグレッションされたサンプルをリコールする計量法を提案する。
提案した損失であるIA-BCEは、DeTRのトレーニングをガイドし、分類スコアとローカライゼーション精度の強い相関関係を構築する。
クエリのスパーシリティによって引き起こされるサンプル品質の劇的な低下を克服するために,プライマリサンプル重み付け機構を導入する。
論文 参考訳(メタデータ) (2023-04-15T10:24:51Z) - RepQ-ViT: Scale Reparameterization for Post-Training Quantization of
Vision Transformers [2.114921680609289]
視覚変換器のための新しいPTQフレームワークRepQ-ViTを提案する。
RepQ-ViTは量子化と推論プロセスを分離する。
既存の強力なベースラインを上回り、ViTの4ビットPTQの精度を有効レベルまで向上させることができる。
論文 参考訳(メタデータ) (2022-12-16T02:52:37Z) - Q-ViT: Accurate and Fully Quantized Low-bit Vision Transformer [56.87383229709899]
我々は、完全量子化視覚変換器(Q-ViT)のための情報修正モジュール(IRM)と分配誘導蒸留法を開発した。
我々の手法は、先行技術よりもはるかに優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-13T04:00:29Z) - Efficient Decoder-free Object Detection with Transformers [75.00499377197475]
視覚変換器(ViT)は、物体検出アプローチのランドスケープを変化させている。
本稿では,デコーダフリー完全トランス(DFFT)オブジェクト検出器を提案する。
DFFT_SMALLは、トレーニングおよび推論段階で高い効率を達成する。
論文 参考訳(メタデータ) (2022-06-14T13:22:19Z) - Recurrent Glimpse-based Decoder for Detection with Transformer [85.64521612986456]
本稿では,Recurrent Glimpse-based deoder (REGO)について紹介する。
特に、REGOは多段階のリカレント処理構造を用いて、DETRの注目が徐々に前景オブジェクトに焦点を合わせるのを助ける。
REGOは、異なるDETR検出器の性能を最大7%向上させる。
論文 参考訳(メタデータ) (2021-12-09T00:29:19Z) - Deep Structured Instance Graph for Distilling Object Detectors [82.16270736573176]
本稿では,検出システム内の情報を利用して,検出知識の蒸留を容易にするための簡単な知識構造を提案する。
我々は,1段と2段の両方の検出器上で,多様な学生-教師ペアによるCOCOオブジェクト検出の課題に対して,新しい最先端の成果を達成した。
論文 参考訳(メタデータ) (2021-09-27T08:26:00Z) - Rethinking Transformer-based Set Prediction for Object Detection [57.7208561353529]
実験の結果,提案手法は元のDETRよりもはるかに高速に収束するだけでなく,検出精度の点でDTRや他のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2020-11-21T21:59:42Z) - VecQ: Minimal Loss DNN Model Compression With Vectorized Weight
Quantization [19.66522714831141]
我々は、最小の直接量子化損失とモデル精度を保証できるVecQと呼ばれる新しい量子化ソリューションを開発した。
また,学習中に提案した量子化過程を高速化するために,パラメータ化推定と確率ベース計算を用いて量子化過程を高速化する。
論文 参考訳(メタデータ) (2020-05-18T07:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。