論文の概要: Into the Fog: Evaluating Multiple Object Tracking Robustness
- arxiv url: http://arxiv.org/abs/2404.10534v1
- Date: Fri, 12 Apr 2024 21:41:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 16:53:59.420467
- Title: Into the Fog: Evaluating Multiple Object Tracking Robustness
- Title(参考訳): Into the Fog: 複数物体追跡ロバスト性の評価
- Authors: Nadezda Kirillova, M. Jehanzeb Mirza, Horst Possegger, Horst Bischof,
- Abstract要約: State-of-the-art(SOTA)トラッカーは、現在のベンチマークでトレーニングおよび評価を行うと、顕著なMultiple Object Tracking(MOT)パフォーマンスを示す。
任意の実世界のMOTデータセットに物理に基づく体積霧シミュレーションのためのパイプラインを提案する。
また,SOTA MOT法を網羅的に評価し,霧と霧に類似した課題の下でその限界を明らかにする。
- 参考スコア(独自算出の注目度): 11.271890273740143
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State-of-the-art (SOTA) trackers have shown remarkable Multiple Object Tracking (MOT) performance when trained and evaluated on current benchmarks. However, these benchmarks primarily consist of clear scenarios, overlooking adverse atmospheric conditions such as fog, haze, smoke and dust. As a result, the robustness of SOTA trackers remains underexplored. To address these limitations, we propose a pipeline for physic-based volumetric fog simulation in arbitrary real-world MOT dataset utilizing frame-by-frame monocular depth estimation and a fog formation optical model. Moreover, we enhance our simulation by rendering of both homogeneous and heterogeneous fog effects. We propose to use the dark channel prior method to estimate fog (smoke) color, which shows promising results even in night and indoor scenes. We present the leading tracking benchmark MOTChallenge (MOT17 dataset) overlaid by fog (smoke for indoor scenes) of various intensity levels and conduct a comprehensive evaluation of SOTA MOT methods, revealing their limitations under fog and fog-similar challenges.
- Abstract(参考訳): State-of-the-art(SOTA)トラッカーは、現在のベンチマークでトレーニングおよび評価を行うと、顕著なMultiple Object Tracking(MOT)パフォーマンスを示す。
しかし、これらのベンチマークは主に明確なシナリオで構成されており、霧、霧、煙、塵のような有害な大気環境を見渡せる。
その結果,SOTAトラッカーのロバスト性は未解明のままである。
これらの制約に対処するために,フレーム単位の単眼深度推定と霧生成光学モデルを用いた任意の実世界のMOTデータセットにおける物理ベースの体積霧シミュレーションのためのパイプラインを提案する。
さらに, 同質および異質の霧効果のレンダリングによりシミュレーションを強化する。
そこで本研究では,夜間や屋内のシーンにおいても,霧(煙)の色を推定するために暗チャネル先行手法を提案する。
種々の強度の霧(屋内シーンの煙)をオーバーレイした先行追跡ベンチマークMOTChallenge(MOT17データセット)を,SOTAMOT法を網羅的に評価し,霧と霧に類似した課題下での限界を明らかにする。
関連論文リスト
- FogGuard: guarding YOLO against fog using perceptual loss [5.868532677577194]
FogGuard(フォグガード)は、霧の天候によって引き起こされる課題に対処するために設計された、霧を意識した物体検出ネットワークである。
FogGuardは、RTTSデータセットで57.78%のYOLOv3に対して69.43%のmAPを達成した。
論文 参考訳(メタデータ) (2024-03-13T20:13:25Z) - Creating and Leveraging a Synthetic Dataset of Cloud Optical Thickness Measures for Cloud Detection in MSI [3.4764766275808583]
雲の形成は、しばしば地球の地表を観測する光学衛星による不明瞭な観測である。
雲の光学的厚さ推定のための新しい合成データセットを提案する。
信頼性と汎用性を備えたクラウドマスクを実データで取得するために活用する。
論文 参考訳(メタデータ) (2023-11-23T14:28:28Z) - DeNoising-MOT: Towards Multiple Object Tracking with Severe Occlusions [52.63323657077447]
DNMOTは、複数のオブジェクト追跡のためのエンドツーエンドのトレーニング可能なDeNoising Transformerである。
具体的には、トレーニング中にノイズを伴って軌道を拡大し、エンコーダ・デコーダアーキテクチャのデノイング過程をモデルに学習させる。
我々はMOT17,MOT20,DanceTrackのデータセットについて広範な実験を行い,実験結果から,提案手法が従来の最先端手法よりも明確なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-09-09T04:40:01Z) - Vision-Based Autonomous Navigation for Unmanned Surface Vessel in
Extreme Marine Conditions [2.8983738640808645]
本稿では,極端海洋環境下での目標物追跡のための自律的視覚に基づくナビゲーション・フレームワークを提案する。
提案手法は砂嵐や霧による可視性低下下でのシミュレーションで徹底的に検証されている。
結果は、ベンチマークしたMBZIRCシミュレーションデータセット全体にわたる最先端のデハージング手法と比較される。
論文 参考訳(メタデータ) (2023-08-08T14:25:13Z) - AVisT: A Benchmark for Visual Object Tracking in Adverse Visibility [125.77396380698639]
AVisTは、視認性の悪いさまざまなシナリオにおける視覚的トラッキングのためのベンチマークである。
AVisTは、80kの注釈付きフレームを持つ120の挑戦的なシーケンスで構成されており、18の多様なシナリオにまたがっている。
我々は、属性間でのトラッキング性能を詳細に分析し、AVisTで17の人気のトラッカーと最近のトラッカーをベンチマークした。
論文 参考訳(メタデータ) (2022-08-14T17:49:37Z) - LiDAR Snowfall Simulation for Robust 3D Object Detection [116.10039516404743]
そこで本研究では,降雪の影響をシミュレーションする物理的手法を提案する。
本手法では,LiDARの各線に対して2次元空間の雪粒子をサンプリングし,誘導幾何を用いて各LiDAR線の測定を修正した。
我々はシミュレーションを用いて、部分的に合成された雪のLiDARデータを生成し、これらのデータを利用して、降雪に頑健な3次元物体検出モデルを訓練する。
論文 参考訳(メタデータ) (2022-03-28T21:48:26Z) - Fog Simulation on Real LiDAR Point Clouds for 3D Object Detection in
Adverse Weather [92.84066576636914]
本研究は,霧の天候下でのLiDARによる3次元物体検出の課題に対処する。
我々は、物理的に正確な霧をクリア・ウェザー・シーンにシミュレートすることでこの問題に対処する。
Seeing Through Fogデータセットに強力な3Dオブジェクト検出ベースラインを提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2021-08-11T14:37:54Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。