論文の概要: SiamMo: Siamese Motion-Centric 3D Object Tracking
- arxiv url: http://arxiv.org/abs/2408.01688v1
- Date: Sat, 3 Aug 2024 07:02:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 19:00:53.294070
- Title: SiamMo: Siamese Motion-Centric 3D Object Tracking
- Title(参考訳): SiamMo: シームズモーション中心の3Dオブジェクト追跡
- Authors: Yuxiang Yang, Yingqi Deng, Jing Zhang, Hongjie Gu, Zhekang Don,
- Abstract要約: 動作中心追跡の手法であるSiamMoを紹介する。
従来のシングルストリームアーキテクチャとは異なり、動作中心追跡のためのSiamese特徴抽出を導入する。
SiamMoは、KITTI追跡ベンチマークで90.1%の精度で新しい記録を樹立し、推論速度は108 FPSである。
- 参考スコア(独自算出の注目度): 12.266730825519954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current 3D single object tracking methods primarily rely on the Siamese matching-based paradigm, which struggles with textureless and incomplete LiDAR point clouds. Conversely, the motion-centric paradigm avoids appearance matching, thus overcoming these issues. However, its complex multi-stage pipeline and the limited temporal modeling capability of a single-stream architecture constrain its potential. In this paper, we introduce SiamMo, a novel and simple Siamese motion-centric tracking approach. Unlike the traditional single-stream architecture, we employ Siamese feature extraction for motion-centric tracking. This decouples feature extraction from temporal fusion, significantly enhancing tracking performance. Additionally, we design a Spatio-Temporal Feature Aggregation module to integrate Siamese features at multiple scales, capturing motion information effectively. We also introduce a Box-aware Feature Encoding module to encode object size priors into motion estimation. SiamMo is a purely motion-centric tracker that eliminates the need for additional processes like segmentation and box refinement. Without whistles and bells, SiamMo not only surpasses state-of-the-art methods across multiple benchmarks but also demonstrates exceptional robustness in challenging scenarios. SiamMo sets a new record on the KITTI tracking benchmark with 90.1\% precision while maintaining a high inference speed of 108 FPS. The code will be released at https://github.com/HDU-VRLab/SiamMo.
- Abstract(参考訳): 現在の3Dオブジェクト追跡手法は主に、テクスチャレスで不完全なLiDAR点雲に苦しむシームズマッチングベースのパラダイムに依存している。
逆に、動き中心のパラダイムは外観マッチングを回避し、これらの問題を克服する。
しかし、複雑なマルチステージパイプラインと、単一ストリームアーキテクチャの時間的モデリング能力は、その可能性を制限する。
本稿では,シームズ運動中心追跡手法であるSiamMoを紹介する。
従来のシングルストリームアーキテクチャとは異なり、動作中心のトラッキングにSiamese機能抽出を用いる。
これにより、時間融合からの特徴抽出が切り離され、トラッキング性能が著しく向上する。
さらに,複数のスケールでSamese機能を統合するための時空間特徴集約モジュールを設計し,動作情報を効果的に取得する。
また、オブジェクトサイズを動作推定にエンコードするBox-aware Feature Encodingモジュールも導入した。
SiamMoは純粋にモーション中心のトラッカーで、セグメンテーションやボックスリファインメントといった追加のプロセスを必要としない。
ホイッスルやベルがなければ、SiamMoは複数のベンチマークで最先端のメソッドを超越するだけでなく、挑戦的なシナリオにおいて例外的な堅牢性を示す。
SiamMoは、KITTIトラッキングベンチマークで90.1\%の精度で新しい記録を樹立し、高い推論速度は108 FPSを維持した。
コードはhttps://github.com/HDU-VRLab/SiamMo.comで公開される。
関連論文リスト
- Motion-to-Matching: A Mixed Paradigm for 3D Single Object Tracking [27.805298263103495]
本稿では,モーションモデリングと特徴マッチングを組み合わせたMTM-Trackerを提案する。
第1段階では、連続した履歴ボックスを先行動作として利用し、ターゲットの粗い位置を特定するエンコーダ・デコーダ構造を提案する。
第2段階では、連続する点雲から動きを認識する特徴を抽出し、それらをマッチングして目標運動を洗練させる特徴相互作用モジュールを導入する。
論文 参考訳(メタデータ) (2023-08-23T02:40:51Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - InstMove: Instance Motion for Object-centric Video Segmentation [70.16915119724757]
本研究では,オブジェクト中心ビデオのインスタンス・モーションを表すInstMoveとインスタンス・レベル・モーションについて検討する。
InstMoveは主に画像特徴の埋め込みのないインスタンスレベルのモーション情報に依存している。
数行のコードだけで、InstMoveは3つの異なるビデオセグメンテーションタスクのために、現在のSOTAメソッドに統合できる。
論文 参考訳(メタデータ) (2023-03-14T17:58:44Z) - Beyond 3D Siamese Tracking: A Motion-Centric Paradigm for 3D Single
Object Tracking in Point Clouds [39.41305358466479]
LiDARポイントクラウドにおける3Dオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
新しい視点から3D SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2022-03-03T14:20:10Z) - SiamMOT: Siamese Multi-Object Tracking [28.97401838563374]
地域をベースとしたSiamMOTと呼ばれるマルチオブジェクト追跡ネットワークを提案する。
SiamMOTには、検出されたインスタンスが関連付けられているような2つのフレーム間のインスタンスの動きを推定するモーションモデルが含まれている。
SiamMOTは効率的で、17 FPSで720P動画を1つのモダンGPU上で動かせる。
論文 参考訳(メタデータ) (2021-05-25T01:09:26Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - MAT: Motion-Aware Multi-Object Tracking [9.098793914779161]
本稿では,様々な物体の動作パターンに着目した動き認識トラッキング(MAT)を提案する。
MOT16とMOT17の挑戦的なベンチマークの実験は、我々のMATアプローチが大きなマージンで優れたパフォーマンスを達成することを実証している。
論文 参考訳(メタデータ) (2020-09-10T11:51:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。