論文の概要: Selective Focus: Investigating Semantics Sensitivity in Post-training Quantization for Lane Detection
- arxiv url: http://arxiv.org/abs/2405.06264v1
- Date: Fri, 10 May 2024 06:29:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-13 16:37:41.733930
- Title: Selective Focus: Investigating Semantics Sensitivity in Post-training Quantization for Lane Detection
- Title(参考訳): 選択的焦点:レーン検出のための後学習量子化における意味論的感度の検討
- Authors: Yunqian Fan, Xiuying Wei, Ruihao Gong, Yuqing Ma, Xiangguo Zhang, Qi Zhang, Xianglong Liu,
- Abstract要約: レーン検出は、自動運転のL2+能力を高める上で重要な役割を担い、広く注目を集めている。
Post-Processing Quantization (PTQ) はLDモデルの実用的利用を促進し、ラベル付きデータなしで高速かつ限られたメモリを実現する。
レーン検出における後処理に対するセマンティック・セマンティック・セマンティック・セマンティクスを,新しいレーン歪みスコアを用いて先駆的に検討した。
提案手法は,1つのGPU上で数分で量子モデルを生成し,CULaneデータセットの6.4%のF1スコア改善を実現する。
- 参考スコア(独自算出の注目度): 28.567882333780194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lane detection (LD) plays a crucial role in enhancing the L2+ capabilities of autonomous driving, capturing widespread attention. The Post-Processing Quantization (PTQ) could facilitate the practical application of LD models, enabling fast speeds and limited memories without labeled data. However, prior PTQ methods do not consider the complex LD outputs that contain physical semantics, such as offsets, locations, etc., and thus cannot be directly applied to LD models. In this paper, we pioneeringly investigate semantic sensitivity to post-processing for lane detection with a novel Lane Distortion Score. Moreover, we identify two main factors impacting the LD performance after quantization, namely intra-head sensitivity and inter-head sensitivity, where a small quantization error in specific semantics can cause significant lane distortion. Thus, we propose a Selective Focus framework deployed with Semantic Guided Focus and Sensitivity Aware Selection modules, to incorporate post-processing information into PTQ reconstruction. Based on the observed intra-head sensitivity, Semantic Guided Focus is introduced to prioritize foreground-related semantics using a practical proxy. For inter-head sensitivity, we present Sensitivity Aware Selection, efficiently recognizing influential prediction heads and refining the optimization objectives at runtime. Extensive experiments have been done on a wide variety of models including keypoint-, anchor-, curve-, and segmentation-based ones. Our method produces quantized models in minutes on a single GPU and can achieve 6.4% F1 Score improvement on the CULane dataset.
- Abstract(参考訳): 車線検出(LD)は、自動運転のL2+能力を高める上で重要な役割を担い、広く注目を集めている。
Post-Processing Quantization (PTQ) はLDモデルの実用的利用を促進し、ラベル付きデータなしで高速かつ限られたメモリを実現する。
しかし、従来のPTQ手法では、オフセットや位置などの物理的意味論を含む複雑なLD出力を考慮せず、したがってLDモデルに直接適用することはできない。
本稿では,新しいレーン歪みスコアを用いたレーン検出における後処理のセマンティック・セマンティック・セマンティック・セマンティクスを先駆的に検討する。
さらに,定量化後のLD性能に影響を及ぼす2つの要因,すなわち頭内感度と頭間感度を同定した。
そこで本研究では,セマンティック・ガイド・フォーカスとセンシティビティ・アウェア・セレクション・セレクション・モジュールを併用した選択型フォーカス・フレームワークを提案し,後処理情報をPTQ再構成に組み込む。
観察された頭蓋内感度に基づいて,実効プロキシを用いて前景関連セマンティックスを優先順位付けするためにセマンティックガイドドフォーカスを導入した。
頭部間感度について,感性意識選択(Sensitivity Aware Selection)を提案し,影響のある予測ヘッドを効率よく認識し,実行時の最適化目標を精査する。
キーポイント、アンカー、カーブ、セグメンテーションベースのモデルを含む、広範囲にわたる実験が行われた。
提案手法は,1つのGPU上で数分で量子モデルを生成し,CULaneデータセットの6.4%のF1スコア改善を実現する。
関連論文リスト
- Infrared Small Target Detection with Scale and Location Sensitivity [19.89762494490961]
本稿では,より効率的な損失を伴い,より単純なモデル構造で検出性能を向上させることに焦点を当てる。
具体的には、まず、既存の損失の限界に対応するために、新しいスケール・アンド・ロケーション・センシティブ(SLS)損失を提案する。
予測の規模毎にSLS損失を適用することで、MSHNetは既存の最先端手法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2024-03-28T12:28:58Z) - Revisiting Cephalometric Landmark Detection from the view of Human Pose
Estimation with Lightweight Super-Resolution Head [11.40242574405714]
提案手法は,MMPose として知られるヒューマノイドポーズ推定(HPE)に基づくベンチマークである。
パフォーマンスをさらに向上するために、フレームワーク内にアップスケーリング設計を導入します。
MICCAI CLDetection2023では,3つの指標で1位,残る1つで3位となった。
論文 参考訳(メタデータ) (2023-09-29T11:15:39Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - KECOR: Kernel Coding Rate Maximization for Active 3D Object Detection [48.66703222700795]
我々は、ラベルの取得に最も有用なポイントクラウドを特定するために、新しいカーネル戦略を利用する。
1段目(SECOND)と2段目(SECOND)の両方に対応するため、アノテーションに選択した境界ボックスの総数と検出性能のトレードオフをよく組み込んだ分類エントロピー接点を組み込んだ。
その結果,ボックスレベルのアノテーションのコストは約44%,計算時間は26%削減された。
論文 参考訳(メタデータ) (2023-07-16T04:27:03Z) - ViT-Calibrator: Decision Stream Calibration for Vision Transformer [49.60474757318486]
本稿では、一般的な視覚変換器の性能を高めるための、決定ストリームと呼ばれる新しいパラダイムを提案する。
異なるトークンと複数の次元の関連係数の相関関係を探索し,学習過程における情報伝達機構について光を当てた。
論文 参考訳(メタデータ) (2023-04-10T02:40:24Z) - TMoE-P: Towards the Pareto Optimum for Multivariate Soft Sensors [7.236362889442992]
我々は,多変量ソフトセンサを多目的問題に再構成し,課題と最先端性能の両方に対処する。
負の伝達問題に対処するために,我々はまず,パラメータ共有のための客観的かつ客観的な専門家を利用したOMoEモジュールを提案する。
次に,シーソー現象に対処するため,最適ルーティングを実現するためのタスク認識型Mixture-of-Expertsフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-21T06:49:09Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Enhancing Object Detection for Autonomous Driving by Optimizing Anchor
Generation and Addressing Class Imbalance [0.0]
本研究では,より高速なR-CNNに基づく拡張型2次元物体検出器を提案する。
より高速なr-cnnに対する修正は計算コストを増加させず、他のアンカーベースの検出フレームワークを最適化するために容易に拡張できる。
論文 参考訳(メタデータ) (2021-04-08T16:58:31Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。