論文の概要: Into the Fog: Evaluating Robustness of Multiple Object Tracking
- arxiv url: http://arxiv.org/abs/2404.10534v2
- Date: Wed, 13 Nov 2024 14:36:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 16:09:32.066034
- Title: Into the Fog: Evaluating Robustness of Multiple Object Tracking
- Title(参考訳): 複数物体追跡におけるロバスト性の評価
- Authors: Nadezda Kirillova, M. Jehanzeb Mirza, Horst Bischof, Horst Possegger,
- Abstract要約: 最先端のMultiple Object Tracking (MOT)アプローチは、現在のベンチマークでトレーニングされ評価された場合、顕著なパフォーマンスを示している。
これらのベンチマークは主に、霧、干し草、煙、塵のような有害な大気環境を見渡す、晴れた気候シナリオで構成されている。
フレーム単位の単眼深度推定と霧生成光学モデルを用いて,任意のMOTデータセットに対する物理に基づく体積霧シミュレーション手法を提案する。
- 参考スコア(独自算出の注目度): 11.271890273740143
- License:
- Abstract: State-of-the-art Multiple Object Tracking (MOT) approaches have shown remarkable performance when trained and evaluated on current benchmarks. However, these benchmarks primarily consist of clear weather scenarios, overlooking adverse atmospheric conditions such as fog, haze, smoke and dust. As a result, the robustness of trackers against these challenging conditions remains underexplored. To address this gap, we introduce physics-based volumetric fog simulation method for arbitrary MOT datasets, utilizing frame-by-frame monocular depth estimation and a fog formation optical model. We enhance our simulation by rendering both homogeneous and heterogeneous fog and propose to use the dark channel prior method to estimate atmospheric light, showing promising results even in night and indoor scenes. We present the leading benchmark MOTChallenge (third release) augmented with fog (smoke for indoor scenes) of various intensities and conduct a comprehensive evaluation of MOT methods, revealing their limitations under fog and fog-like challenges.
- Abstract(参考訳): 最先端のMultiple Object Tracking (MOT)アプローチは、現在のベンチマークでトレーニングされ評価された場合、顕著なパフォーマンスを示している。
しかし、これらのベンチマークは主に晴れた天気シナリオで構成されており、霧、干し草、煙、塵のような有害な大気環境を見渡せる。
結果として、これらの困難な条件に対するトラッカーの堅牢性は未解明のままである。
このギャップに対処するために、フレーム単位の単眼深度推定と霧生成光学モデルを用いて、任意のMOTデータセットに対する物理ベースの体積霧シミュレーション手法を導入する。
我々は, 同質霧と異質霧の両方をレンダリングすることでシミュレーションを強化し, 大気光を推定するための暗チャネル先行手法を提案し, 夜間・屋内のシーンにおいても有望な結果を示す。
種々の強度の霧(屋内シーンの煙)を付加したMOTChallenge(第3リリース)の先行ベンチマークを提示し,MOT手法の総合評価を行い,霧や霧のような課題下での限界を明らかにする。
関連論文リスト
- FogGuard: guarding YOLO against fog using perceptual loss [5.868532677577194]
FogGuard(フォグガード)は、霧の天候によって引き起こされる課題に対処するために設計された、霧を意識した物体検出ネットワークである。
FogGuardは、YOLOv3をベースラインアルゴリズムとして組み込むことで、シーン内の霧の状態を補償する。
我々のネットワークは、RTTSデータセット上でのYOLOv3の57.78%と比較して、69.43%のmAPを達成した。
論文 参考訳(メタデータ) (2024-03-13T20:13:25Z) - Creating and Leveraging a Synthetic Dataset of Cloud Optical Thickness Measures for Cloud Detection in MSI [3.4764766275808583]
雲の形成は、しばしば地球の地表を観測する光学衛星による不明瞭な観測である。
雲の光学的厚さ推定のための新しい合成データセットを提案する。
信頼性と汎用性を備えたクラウドマスクを実データで取得するために活用する。
論文 参考訳(メタデータ) (2023-11-23T14:28:28Z) - DeNoising-MOT: Towards Multiple Object Tracking with Severe Occlusions [52.63323657077447]
DNMOTは、複数のオブジェクト追跡のためのエンドツーエンドのトレーニング可能なDeNoising Transformerである。
具体的には、トレーニング中にノイズを伴って軌道を拡大し、エンコーダ・デコーダアーキテクチャのデノイング過程をモデルに学習させる。
我々はMOT17,MOT20,DanceTrackのデータセットについて広範な実験を行い,実験結果から,提案手法が従来の最先端手法よりも明確なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-09-09T04:40:01Z) - Vision-Based Autonomous Navigation for Unmanned Surface Vessel in
Extreme Marine Conditions [2.8983738640808645]
本稿では,極端海洋環境下での目標物追跡のための自律的視覚に基づくナビゲーション・フレームワークを提案する。
提案手法は砂嵐や霧による可視性低下下でのシミュレーションで徹底的に検証されている。
結果は、ベンチマークしたMBZIRCシミュレーションデータセット全体にわたる最先端のデハージング手法と比較される。
論文 参考訳(メタデータ) (2023-08-08T14:25:13Z) - AVisT: A Benchmark for Visual Object Tracking in Adverse Visibility [125.77396380698639]
AVisTは、視認性の悪いさまざまなシナリオにおける視覚的トラッキングのためのベンチマークである。
AVisTは、80kの注釈付きフレームを持つ120の挑戦的なシーケンスで構成されており、18の多様なシナリオにまたがっている。
我々は、属性間でのトラッキング性能を詳細に分析し、AVisTで17の人気のトラッカーと最近のトラッカーをベンチマークした。
論文 参考訳(メタデータ) (2022-08-14T17:49:37Z) - LiDAR Snowfall Simulation for Robust 3D Object Detection [116.10039516404743]
そこで本研究では,降雪の影響をシミュレーションする物理的手法を提案する。
本手法では,LiDARの各線に対して2次元空間の雪粒子をサンプリングし,誘導幾何を用いて各LiDAR線の測定を修正した。
我々はシミュレーションを用いて、部分的に合成された雪のLiDARデータを生成し、これらのデータを利用して、降雪に頑健な3次元物体検出モデルを訓練する。
論文 参考訳(メタデータ) (2022-03-28T21:48:26Z) - Fog Simulation on Real LiDAR Point Clouds for 3D Object Detection in
Adverse Weather [92.84066576636914]
本研究は,霧の天候下でのLiDARによる3次元物体検出の課題に対処する。
我々は、物理的に正確な霧をクリア・ウェザー・シーンにシミュレートすることでこの問題に対処する。
Seeing Through Fogデータセットに強力な3Dオブジェクト検出ベースラインを提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2021-08-11T14:37:54Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。