論文の概要: Into the Fog: Evaluating Multiple Object Tracking Robustness
- arxiv url: http://arxiv.org/abs/2404.10534v1
- Date: Fri, 12 Apr 2024 21:41:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 16:53:59.420467
- Title: Into the Fog: Evaluating Multiple Object Tracking Robustness
- Title(参考訳): Into the Fog: 複数物体追跡ロバスト性の評価
- Authors: Nadezda Kirillova, M. Jehanzeb Mirza, Horst Possegger, Horst Bischof,
- Abstract要約: State-of-the-art(SOTA)トラッカーは、現在のベンチマークでトレーニングおよび評価を行うと、顕著なMultiple Object Tracking(MOT)パフォーマンスを示す。
任意の実世界のMOTデータセットに物理に基づく体積霧シミュレーションのためのパイプラインを提案する。
また,SOTA MOT法を網羅的に評価し,霧と霧に類似した課題の下でその限界を明らかにする。
- 参考スコア(独自算出の注目度): 11.271890273740143
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State-of-the-art (SOTA) trackers have shown remarkable Multiple Object Tracking (MOT) performance when trained and evaluated on current benchmarks. However, these benchmarks primarily consist of clear scenarios, overlooking adverse atmospheric conditions such as fog, haze, smoke and dust. As a result, the robustness of SOTA trackers remains underexplored. To address these limitations, we propose a pipeline for physic-based volumetric fog simulation in arbitrary real-world MOT dataset utilizing frame-by-frame monocular depth estimation and a fog formation optical model. Moreover, we enhance our simulation by rendering of both homogeneous and heterogeneous fog effects. We propose to use the dark channel prior method to estimate fog (smoke) color, which shows promising results even in night and indoor scenes. We present the leading tracking benchmark MOTChallenge (MOT17 dataset) overlaid by fog (smoke for indoor scenes) of various intensity levels and conduct a comprehensive evaluation of SOTA MOT methods, revealing their limitations under fog and fog-similar challenges.
- Abstract(参考訳): State-of-the-art(SOTA)トラッカーは、現在のベンチマークでトレーニングおよび評価を行うと、顕著なMultiple Object Tracking(MOT)パフォーマンスを示す。
しかし、これらのベンチマークは主に明確なシナリオで構成されており、霧、霧、煙、塵のような有害な大気環境を見渡せる。
その結果,SOTAトラッカーのロバスト性は未解明のままである。
これらの制約に対処するために,フレーム単位の単眼深度推定と霧生成光学モデルを用いた任意の実世界のMOTデータセットにおける物理ベースの体積霧シミュレーションのためのパイプラインを提案する。
さらに, 同質および異質の霧効果のレンダリングによりシミュレーションを強化する。
そこで本研究では,夜間や屋内のシーンにおいても,霧(煙)の色を推定するために暗チャネル先行手法を提案する。
種々の強度の霧(屋内シーンの煙)をオーバーレイした先行追跡ベンチマークMOTChallenge(MOT17データセット)を,SOTAMOT法を網羅的に評価し,霧と霧に類似した課題下での限界を明らかにする。
関連論文リスト
- Dusk Till Dawn: Self-supervised Nighttime Stereo Depth Estimation using Visual Foundation Models [16.792458193160407]
自己教師付き深さ推定アルゴリズムはフレームウォーピング関係に大きく依存する。
夜間に焦点をあてた自己教師型ステレオ深度推定を行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-18T03:07:23Z) - Observation-Guided Meteorological Field Downscaling at Station Scale: A
Benchmark and a New Method [66.80344502790231]
気象学的ダウンスケーリングを任意の散乱ステーションスケールに拡張し、新しいベンチマークとデータセットを確立する。
データ同化技術にインスパイアされた我々は、観測データをダウンスケーリングプロセスに統合し、マルチスケールの観測先行情報を提供する。
提案手法は、複数の曲面変数上で、他の特別に設計されたベースラインモデルよりも優れている。
論文 参考訳(メタデータ) (2024-01-22T14:02:56Z) - Vision-Based Autonomous Navigation for Unmanned Surface Vessel in
Extreme Marine Conditions [2.8983738640808645]
本稿では,極端海洋環境下での目標物追跡のための自律的視覚に基づくナビゲーション・フレームワークを提案する。
提案手法は砂嵐や霧による可視性低下下でのシミュレーションで徹底的に検証されている。
結果は、ベンチマークしたMBZIRCシミュレーションデータセット全体にわたる最先端のデハージング手法と比較される。
論文 参考訳(メタデータ) (2023-08-08T14:25:13Z) - AVisT: A Benchmark for Visual Object Tracking in Adverse Visibility [125.77396380698639]
AVisTは、視認性の悪いさまざまなシナリオにおける視覚的トラッキングのためのベンチマークである。
AVisTは、80kの注釈付きフレームを持つ120の挑戦的なシーケンスで構成されており、18の多様なシナリオにまたがっている。
我々は、属性間でのトラッキング性能を詳細に分析し、AVisTで17の人気のトラッカーと最近のトラッカーをベンチマークした。
論文 参考訳(メタデータ) (2022-08-14T17:49:37Z) - LiDAR Snowfall Simulation for Robust 3D Object Detection [116.10039516404743]
そこで本研究では,降雪の影響をシミュレーションする物理的手法を提案する。
本手法では,LiDARの各線に対して2次元空間の雪粒子をサンプリングし,誘導幾何を用いて各LiDAR線の測定を修正した。
我々はシミュレーションを用いて、部分的に合成された雪のLiDARデータを生成し、これらのデータを利用して、降雪に頑健な3次元物体検出モデルを訓練する。
論文 参考訳(メタデータ) (2022-03-28T21:48:26Z) - A high-precision self-supervised monocular visual odometry in foggy
weather based on robust cycled generative adversarial networks and multi-task
learning aided depth estimation [0.0]
本稿では,霧の天候下でのナビゲーションに特化して設計された,高精度な自己監督型単分子VOを提案する。
サイクル生成対向ネットワークは、前と後ろの半サイクルに一貫した推定を強制することで、高品質な自己監督的損失を得るように設計されている。
霧の天候における自己監督的損失に対する複雑な光度変化の干渉を取り除くため、勾配に基づく損失と知覚的損失が導入された。
論文 参考訳(メタデータ) (2022-03-09T15:41:57Z) - Fog Simulation on Real LiDAR Point Clouds for 3D Object Detection in
Adverse Weather [92.84066576636914]
本研究は,霧の天候下でのLiDARによる3次元物体検出の課題に対処する。
我々は、物理的に正確な霧をクリア・ウェザー・シーンにシミュレートすることでこの問題に対処する。
Seeing Through Fogデータセットに強力な3Dオブジェクト検出ベースラインを提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2021-08-11T14:37:54Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。