論文の概要: One Homography is All You Need: IMM-based Joint Homography and Multiple Object State Estimation
- arxiv url: http://arxiv.org/abs/2409.02562v2
- Date: Thu, 14 Nov 2024 10:45:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:22:04.828272
- Title: One Homography is All You Need: IMM-based Joint Homography and Multiple Object State Estimation
- Title(参考訳): IMMを用いた共同ホログラフィーと複数物体状態推定
- Authors: Paul Johannes Claasen, Johan Pieter de Villiers,
- Abstract要約: IMMジョイントホモグラフィー状態推定(IMM-JHSE)を提案する。
IMM-JHSEは、唯一の付加的な3D情報として初期ホモグラフィー推定を使用する。
IMM-JHSEは、MOT17、MOT20、KITTI-carデータセット上での競合性能を提供する。
- 参考スコア(独自算出の注目度): 2.09942566943801
- License:
- Abstract: A novel online MOT algorithm, IMM Joint Homography State Estimation (IMM-JHSE), is proposed. IMM-JHSE uses an initial homography estimate as the only additional 3D information, whereas other 3D MOT methods use regular 3D measurements. By jointly modelling the homography matrix and its dynamics as part of track state vectors, IMM-JHSE removes the explicit influence of camera motion compensation techniques on predicted track position states, which was prevalent in previous approaches. Expanding upon this, static and dynamic camera motion models are combined using an IMM filter. A simple bounding box motion model is used to predict bounding box positions to incorporate image plane information. In addition to applying an IMM to camera motion, a non-standard IMM approach is applied where bounding-box-based BIoU scores are mixed with ground-plane-based Mahalanobis distances in an IMM-like fashion to perform association only, making IMM-JHSE robust to motion away from the ground plane. Finally, IMM-JHSE makes use of dynamic process and measurement noise estimation techniques. IMM-JHSE improves upon related techniques, including UCMCTrack, OC-SORT, C-BIoU and ByteTrack on the DanceTrack and KITTI-car datasets, increasing HOTA by 2.64 and 2.11, respectively, while offering competitive performance on the MOT17, MOT20 and KITTI-pedestrian datasets. Using publicly available detections, IMM-JHSE outperforms almost all other 2D MOT methods and is outperformed only by 3D MOT methods -- some of which are offline -- on the KITTI-car dataset. Compared to tracking-by-attention methods, IMM-JHSE shows remarkably similar performance on the DanceTrack dataset and outperforms them on the MOT17 dataset. The code is publicly available: \url{https://github.com/Paulkie99/imm-jhse}.
- Abstract(参考訳): 新しいオンラインMOTアルゴリズムであるIMMジョイントホモグラフィー状態推定(IMM-JHSE)を提案する。
IMM-JHSEは、唯一の追加の3D情報として初期ホモグラフィー推定を用いるが、他の3D MOT法は通常の3D計測を使用する。
IMM-JHSEは、ホモグラフィ行列とそのダイナミクスをトラック状態ベクトルの一部として共同でモデル化することにより、カメラモーション補償技術が予測されたトラック位置状態に与える影響を排除し、それ以前のアプローチで一般的であった。
これを拡張して、静的および動的カメラモーションモデルをIMMフィルタで組み合わせる。
単純なバウンディングボックス動作モデルを用いて、境界ボックスの位置を予測し、画像平面情報を組み込む。
カメラ動作にIMMを適用することに加え、非標準のIMMアプローチでは、バウンディングボックスベースのBIoUスコアと、IMM風のマハラノビス距離を混合してアソシエーションのみを行ない、IMM-JHSEを地平面から遠ざけやすくする。
最後に、IMM-JHSEは動的プロセスと計測ノイズ推定技術を利用する。
IMM-JHSEは、DanceTrackのUCMCTrack、OC-SORT、C-BIoU、ByteTrackなどの関連技術を改善し、それぞれHOTAを2.64と2.11に増加させ、MOT17、MOT20、KITTI-ペデストリアンデータセットで競合性能を提供する。
IMM-JHSEは、公開されている検出を使用して、他のほとんどの2D MOTメソッドより優れており、KITTI-carデータセット上の3D MOTメソッド(一部はオフライン)でのみパフォーマンスが向上している。
IMM-JHSEは、トラッキング・バイ・アテンション法と比較して、DanceTrackデータセットで驚くほどよく似たパフォーマンスを示し、MOT17データセットでそれらを上回る。
コードは公開されている。 \url{https://github.com/Paulkie99/imm-jhse}。
関連論文リスト
- Data-Driven Approaches for Modelling Target Behaviour [1.5495593104596401]
追跡アルゴリズムの性能は、対象の力学に関する選択されたモデル仮定に依存する。
本稿では,物体の動きを記述するために機械学習を利用する3つの異なる手法の比較研究を行う。
論文 参考訳(メタデータ) (2024-10-14T14:18:27Z) - MV-JAR: Masked Voxel Jigsaw and Reconstruction for LiDAR-Based
Self-Supervised Pre-Training [58.07391711548269]
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
論文 参考訳(メタデータ) (2023-03-23T17:59:02Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - CAMO-MOT: Combined Appearance-Motion Optimization for 3D Multi-Object
Tracking with Camera-LiDAR Fusion [34.42289908350286]
3D Multi-object Track (MOT) は、連続的な動的検出時の一貫性を保証する。
LiDAR法で物体の不規則な動きを正確に追跡することは困難である。
複合外観運動最適化(CAMO-MOT)に基づく新しいカメラ-LiDAR融合3DMOTフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-06T14:41:38Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - A two-stage data association approach for 3D Multi-object Tracking [0.0]
画像に基づくトラッキングを3D環境に適応させる2段階データアソシエーション手法を開発した。
提案手法は,NuScenes 検証セットにおいて0.587 AMOTA を達成し,データアソシエーションのための一段二部マッチングを用いてベースラインより優れる。
論文 参考訳(メタデータ) (2021-01-21T15:50:17Z) - FlowMOT: 3D Multi-Object Tracking by Scene Flow Association [9.480272707157747]
従来のマッチングアルゴリズムと点運動情報を統合するLiDARベースの3D MOTフレームワークFlowMOTを提案する。
提案手法は,最新のエンドツーエンド手法より優れ,最先端のフィルタ方式と競合する性能を実現する。
論文 参考訳(メタデータ) (2020-12-14T14:03:48Z) - Online Multi-Object Tracking and Segmentation with GMPHD Filter and
Mask-based Affinity Fusion [79.87371506464454]
本稿では,インスタンス分割結果を入力として利用するMOTS法を提案する。
提案手法は,ガウス混合確率仮説密度 (GMPHD) フィルタ,階層型データアソシエーション (HDA) モデル,マスクベース親和性融合 (MAF) モデルに基づく。
2つの人気のあるMOTSデータセットの実験では、主要なモジュールがいくつかの改善点を示している。
論文 参考訳(メタデータ) (2020-08-31T21:06:22Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z) - Dense Scene Multiple Object Tracking with Box-Plane Matching [73.54369833671772]
マルチオブジェクトトラッキング(MOT)はコンピュータビジョンにおいて重要なタスクである。
密集したシーンにおけるMOT性能を改善するために,Box-Plane Matching (BPM)法を提案する。
3つのモジュールの有効性により、ACM MM Grand Challenge HiEve 2020において、私たちのチームはトラック1のリーダーボードで1位を獲得しました。
論文 参考訳(メタデータ) (2020-07-30T16:39:22Z) - Probabilistic 3D Multi-Object Tracking for Autonomous Driving [23.036619327925088]
本手法は,NuScenes Tracking Challengeにおいて初となるオンライン追跡手法を提案する。
提案手法は,カルマンフィルタを用いて対象状態を推定する。
NuScenes 検証とテストセットの実験結果から,本手法は AB3DMOT ベースライン法より優れていることが示された。
論文 参考訳(メタデータ) (2020-01-16T06:38:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。