論文の概要: Collaborative Multi-Object Tracking with Conformal Uncertainty
Propagation
- arxiv url: http://arxiv.org/abs/2303.14346v2
- Date: Wed, 31 Jan 2024 16:00:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 18:02:42.397010
- Title: Collaborative Multi-Object Tracking with Conformal Uncertainty
Propagation
- Title(参考訳): 等角不確かさ伝播を用いた協調的多物体追跡
- Authors: Sanbao Su, Songyang Han, Yiming Li, Zhili Zhang, Chen Feng, Caiwen
Ding, Fei Miao
- Abstract要約: コラボレーティブオブジェクト検出(COD)は,検出精度の向上と不確かさの低減を目的として提案されている。
我々はMOT性能を向上させるためにMOT-CUPと呼ばれる不確実性伝播フレームワークを設計する。
本フレームワークは, 直接モデリングと共形予測によりCODの不確かさを定量化し, この不確かさを運動予測および関連ステップに伝達する。
- 参考スコア(独自算出の注目度): 30.47064353266713
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection and multiple object tracking (MOT) are essential components
of self-driving systems. Accurate detection and uncertainty quantification are
both critical for onboard modules, such as perception, prediction, and
planning, to improve the safety and robustness of autonomous vehicles.
Collaborative object detection (COD) has been proposed to improve detection
accuracy and reduce uncertainty by leveraging the viewpoints of multiple
agents. However, little attention has been paid to how to leverage the
uncertainty quantification from COD to enhance MOT performance. In this paper,
as the first attempt to address this challenge, we design an uncertainty
propagation framework called MOT-CUP. Our framework first quantifies the
uncertainty of COD through direct modeling and conformal prediction, and
propagates this uncertainty information into the motion prediction and
association steps. MOT-CUP is designed to work with different collaborative
object detectors and baseline MOT algorithms. We evaluate MOT-CUP on V2X-Sim, a
comprehensive collaborative perception dataset, and demonstrate a 2%
improvement in accuracy and a 2.67X reduction in uncertainty compared to the
baselines, e.g. SORT and ByteTrack. In scenarios characterized by high
occlusion levels, our MOT-CUP demonstrates a noteworthy $4.01\%$ improvement in
accuracy. MOT-CUP demonstrates the importance of uncertainty quantification in
both COD and MOT, and provides the first attempt to improve the accuracy and
reduce the uncertainty in MOT based on COD through uncertainty propagation. Our
code is public on https://coperception.github.io/MOT-CUP/.
- Abstract(参考訳): オブジェクト検出と複数のオブジェクト追跡(mot)は、自動運転システムの必須コンポーネントである。
正確な検出と不確かさの定量化は、自動運転車の安全性と堅牢性を改善するために、知覚、予測、計画といったオンボードモジュールにおいて重要である。
協調物体検出(COD)は,複数エージェントの視点を利用して,検出精度の向上と不確実性を低減するために提案されている。
しかし,MOT性能を向上させるため,CODの不確実性定量化の活用にはほとんど注意が払われていない。
本稿では,この課題に対処する最初の試みとして,MOT-CUPと呼ばれる不確実性伝播フレームワークを設計する。
まず, 直接モデリングと共形予測を通じてcodの不確かさを定量化し, この不確実性情報を運動予測および関連ステップに伝播する。
MOT-CUPは、異なる協調オブジェクト検出器とベースラインMOTアルゴリズムで動作するように設計されている。
総合的なコラボレーティブ知覚データセットであるv2x-sim上でのmot-cupを評価し,精度が2%向上し,不確実性が2.67倍低減することを示した。
高い閉塞レベルを特徴とするシナリオでは、MOT-CUPは4.01\%の精度向上を示す。
MOT-CUPはCODとMOTの両方において不確実性定量化の重要性を示し、不確実性伝播を通じてCODに基づくMOTの精度を改善し、不確実性を低減するための最初の試みである。
私たちのコードはhttps://coperception.github.io/MOT-CUP/で公開されています。
関連論文リスト
- Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - UA-Track: Uncertainty-Aware End-to-End 3D Multi-Object Tracking [37.857915442467316]
3D多重物体追跡(MOT)は自律運転知覚において重要な役割を担っている。
最近のエンドツーエンドのクエリベースのトラッカーは、オブジェクトを同時に検出および追跡し、3D MOTタスクの有望な可能性を示している。
既存の方法では、追跡対象の状態や位置に関する正確な信頼が欠如しているため、不確実性の問題を見落としている。
本稿では,不確実性を考慮した3D MOTフレームワークUA-Trackを提案する。
論文 参考訳(メタデータ) (2024-06-04T09:34:46Z) - Ego-Motion Aware Target Prediction Module for Robust Multi-Object Tracking [2.7898966850590625]
我々は、Ego-motion Aware Target Prediction (EMAP)と呼ばれる新しいKFベースの予測モジュールを導入する。
提案手法は、カルマンフィルタを再構成することにより、物体軌道からのカメラ回転速度と翻訳速度の影響を分離する。
EMAPはOC-SORTとDeep OC-SORTのIDSWをそれぞれ73%と21%減少させる。
論文 参考訳(メタデータ) (2024-04-03T23:24:25Z) - UncertaintyTrack: Exploiting Detection and Localization Uncertainty in Multi-Object Tracking [8.645078288584305]
マルチオブジェクトトラッキング(MOT)手法は近年,性能が大幅に向上している。
複数のTBDトラッカーに適用可能なエクステンションのコレクションであるUncertaintyTrackを紹介します。
バークレーディープドライブMOTデータセットの実験では、我々の手法と情報的不確実性推定の組み合わせにより、IDスイッチの数を約19%削減している。
論文 参考訳(メタデータ) (2024-02-19T17:27:04Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - Uncertainty-aware Unsupervised Multi-Object Tracking [33.53331700312752]
教師なしマルチオブジェクトトラッカーは、信頼できる機能埋め込みの学習に劣る。
最近の自己監督技術は採用されているが、時間的関係を捉えられなかった。
本稿では、不確実性問題は避けられないが、不確実性自体を活用して学習された一貫性を向上させることができると論じる。
論文 参考訳(メタデータ) (2023-07-28T09:03:06Z) - Uncertainty Quantification of Collaborative Detection for Self-Driving [12.590332512097698]
連結車両と自律車両(CAV)間の情報共有は、自動運転のための協調物体検出の性能を向上させる。
しかし、CAVは実用上の課題のため、まだ物体検出に不確実性を持っている。
我々の研究は、協調物体検出の不確かさを最初に見積もるものである。
論文 参考訳(メタデータ) (2022-09-16T20:30:45Z) - CertainNet: Sampling-free Uncertainty Estimation for Object Detection [65.28989536741658]
ニューラルネットワークの不確実性を推定することは、安全クリティカルな設定において基本的な役割を果たす。
本研究では,オブジェクト検出のための新しいサンプリング不要不確実性推定法を提案する。
私たちはそれをCertainNetと呼び、各出力信号に対して、オブジェクト性、クラス、位置、サイズという、別の不確実性を提供するのは、これが初めてです。
論文 参考訳(メタデータ) (2021-10-04T17:59:31Z) - Uncertainty-Aware Deep Calibrated Salient Object Detection [74.58153220370527]
既存のディープニューラルネットワークに基づくサルエントオブジェクト検出(SOD)手法は主に高いネットワーク精度の追求に重点を置いている。
これらの手法は、信頼不均衡問題として知られるネットワーク精度と予測信頼の間のギャップを見落としている。
我々は,不確実性を考慮した深部SODネットワークを導入し,深部SODネットワークの過信を防止するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-12-10T23:28:36Z) - FairMOT: On the Fairness of Detection and Re-Identification in Multiple
Object Tracking [92.48078680697311]
マルチオブジェクトトラッキング(MOT)はコンピュータビジョンにおいて重要な問題である。
本稿では,FairMOTと呼ばれる,アンカーフリーなオブジェクト検出アーキテクチャCenterNetをベースとした,シンプルかつ効果的なアプローチを提案する。
このアプローチは、検出と追跡の両方において高い精度を達成する。
論文 参考訳(メタデータ) (2020-04-04T08:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。