論文の概要: SiamMOT: Siamese Multi-Object Tracking
- arxiv url: http://arxiv.org/abs/2105.11595v1
- Date: Tue, 25 May 2021 01:09:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-26 14:11:40.549857
- Title: SiamMOT: Siamese Multi-Object Tracking
- Title(参考訳): SiamMOT: Siamese Multi-Object Tracking
- Authors: Bing Shuai, Andrew Berneshawi, Xinyu Li, Davide Modolo, Joseph Tighe
- Abstract要約: 地域をベースとしたSiamMOTと呼ばれるマルチオブジェクト追跡ネットワークを提案する。
SiamMOTには、検出されたインスタンスが関連付けられているような2つのフレーム間のインスタンスの動きを推定するモーションモデルが含まれている。
SiamMOTは効率的で、17 FPSで720P動画を1つのモダンGPU上で動かせる。
- 参考スコア(独自算出の注目度): 28.97401838563374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we focus on improving online multi-object tracking (MOT). In
particular, we introduce a region-based Siamese Multi-Object Tracking network,
which we name SiamMOT. SiamMOT includes a motion model that estimates the
instance's movement between two frames such that detected instances are
associated. To explore how the motion modelling affects its tracking
capability, we present two variants of Siamese tracker, one that implicitly
models motion and one that models it explicitly. We carry out extensive
quantitative experiments on three different MOT datasets: MOT17, TAO-person and
Caltech Roadside Pedestrians, showing the importance of motion modelling for
MOT and the ability of SiamMOT to substantially outperform the
state-of-the-art. Finally, SiamMOT also outperforms the winners of ACM MM'20
HiEve Grand Challenge on HiEve dataset. Moreover, SiamMOT is efficient, and it
runs at 17 FPS for 720P videos on a single modern GPU. Codes are available in
\url{https://github.com/amazon-research/siam-mot}.
- Abstract(参考訳): 本稿では,オンラインマルチオブジェクトトラッキング(MOT)の改善に焦点を当てる。
特に,地域をベースとしたSiamMOTと呼ばれるSiamese Multi-Object Trackingネットワークを導入する。
SiamMOTには、検出されたインスタンスが関連付けられている2つのフレーム間のインスタンスの動きを推定するモーションモデルが含まれている。
動作モデルがトラッキング能力にどのように影響するかを調べるため,動作を暗黙的にモデル化するSiamese Trackerと,それを明示的にモデル化するSiamese Trackerの2つの変種を提示する。
我々は,MOT17,TAO-person,Caltech Roadside Pedestriansの3種類のMOTデータセットに対して,MOTにおけるモーションモデリングの重要性と,SiamMOTが最先端技術を上回る能力を示す大規模な定量的実験を行った。
最後に、SiamMOTはHiEveデータセットにおけるACM MM'20 HiEve Grand Challengeの勝者よりも優れています。
さらに、SiamMOTは効率が良く、単一のモダンGPU上で720Pビデオの17FPSで動作する。
コードは \url{https://github.com/amazon-research/siam-mot} で入手できる。
関連論文リスト
- MV-MOS: Multi-View Feature Fusion for 3D Moving Object Segmentation [4.386035726986601]
3D-to-2Dプロジェクションにおける動作と意味的特徴の有効活用と情報損失の回避は依然として重要な課題である。
点雲の異なる2次元表現からモーションセマンティックな特徴を融合させることにより,新しい多視点MOSモデル(MV-MOS)を提案する。
提案するマルチブランチ融合MOSフレームワークの有効性を総合実験により検証した。
論文 参考訳(メタデータ) (2024-08-20T07:30:00Z) - SiamMo: Siamese Motion-Centric 3D Object Tracking [12.68616041331354]
動作中心追跡の手法であるSiamMoを紹介する。
従来のシングルストリームアーキテクチャとは異なり、動作中心追跡のためのSiamese特徴抽出を導入する。
SiamMoは、KITTI追跡ベンチマークで90.1%の精度で新しい記録を樹立し、推論速度は108 FPSである。
論文 参考訳(メタデータ) (2024-08-03T07:02:01Z) - Visible-Thermal Multiple Object Tracking: Large-scale Video Dataset and Progressive Fusion Approach [17.286142856787222]
VT-MOTと呼ばれる多目的追跡(MOT)のための大規模な可視熱ビデオベンチマークに貢献する。
VT-MOTには、582のビデオシーケンスペア、401kフレームペアの監視、ドローン、ハンドヘルドプラットフォームが含まれている。
VT-MOTの総合的な実験を行い,提案手法の優位性と有効性を示した。
論文 参考訳(メタデータ) (2024-08-02T01:29:43Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - Tracking Anything in High Quality [63.63653185865726]
HQTrackは高品質なビデオ追跡のためのフレームワークだ。
ビデオマルチオブジェクトセグメンタ(VMOS)とマスクリファインダ(MR)で構成されている。
論文 参考訳(メタデータ) (2023-07-26T06:19:46Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - SportsMOT: A Large Multi-Object Tracking Dataset in Multiple Sports
Scenes [44.46768991505495]
本稿では,emphSportsMOTと呼ばれる多種多様なスポーツシーンにおける大規模多目的追跡データセットを提案する。
240のビデオシーケンス、150Kフレーム以上、およびバスケットボール、バレーボール、サッカーを含む3つのスポーツカテゴリーから収集された1.6M以上のバウンディングボックスで構成されている。
本稿では,emphMixSortと呼ばれる新しい多対象追跡フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-11T12:07:31Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - SMILEtrack: SiMIlarity LEarning for Occlusion-Aware Multiple Object
Tracking [20.286114226299237]
本稿では,SLM(Siamese Network-based similarity Learning Module)を用いたオブジェクトトラッカーSMILEtrackを紹介する。
SLMは2つのオブジェクト間の外観類似性を計算し、分離検出および埋め込みモデルにおける特徴記述子の制限を克服する。
第2に、連続するビデオフレーム間の堅牢なオブジェクトマッチングのための新しいGATE関数を備えた類似マッチングカスケード(SMC)モジュールを開発する。
論文 参考訳(メタデータ) (2022-11-16T10:49:48Z) - Know Your Surroundings: Panoramic Multi-Object Tracking by Multimodality
Collaboration [56.01625477187448]
MMPAT(MultiModality PAnoramic Multi-object Tracking framework)を提案する。
2次元パノラマ画像と3次元点雲を入力とし、マルチモーダルデータを用いて目標軌道を推定する。
提案手法は,検出タスクと追跡タスクの両方においてMMPATが最高性能を達成するJRDBデータセット上で評価する。
論文 参考訳(メタデータ) (2021-05-31T03:16:38Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。