論文の概要: Effective Motion Modeling for UAV-platform Multiple Object Tracking with Re-Margin Loss
- arxiv url: http://arxiv.org/abs/2407.10485v1
- Date: Mon, 15 Jul 2024 07:13:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 16:00:42.060193
- Title: Effective Motion Modeling for UAV-platform Multiple Object Tracking with Re-Margin Loss
- Title(参考訳): 再マージン損失を考慮したUAVプラットフォーム多目的追跡のための効果的な動作モデリング
- Authors: Mufeng Yao, Jinlong Peng, Qingdong He, Bo Peng, Hao Chen, Mingmin Chi, Chao Liu, Jon Atli Benediktsson,
- Abstract要約: 無人航空機プラットフォームからの複数の物体追跡には、効率的な動きモデリングが必要である。
本稿では,最小コストで高精度な動作モデリングを実現するためのフロー・バイ・検出モジュールを提案する。
提案モデルでは, 大規模かつ不規則な動きを伴う物体の追跡に成功し, UAV-MOTタスクにおける既存の最先端手法より優れる。
- 参考スコア(独自算出の注目度): 12.326023523101806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple object tracking (MOT) from unmanned aerial vehicle (UAV) platforms requires efficient motion modeling. This is because UAV-MOT faces tracking difficulties caused by large and irregular motion, and insufficient training due to the motion long-tailed distribution of current UAV-MOT datasets. Previous UAV-MOT methods either extract motion and detection features redundantly or supervise motion model in a sparse scheme, which limited their tracking performance and speed. To this end, we propose a flowing-by-detection module to realize accurate motion modeling with a minimum cost. Focusing on the motion long-tailed problem that were ignored by previous works, the flow-guided margin loss is designed to enable more complete training of large moving objects. Experiments on two widely open-source datasets show that our proposed model can successfully track objects with large and irregular motion and outperform existing state-of-the-art methods in UAV-MOT tasks.
- Abstract(参考訳): 無人航空機(UAV)プラットフォームからの複数の物体追跡(MOT)には、効率的なモーションモデリングが必要である。
これは、UAV-MOTが大規模で不規則な動きによる追跡困難に直面し、現在のUAV-MOTデータセットの長期分布によるトレーニングが不十分なためである。
従来のUAV-MOT法では、追跡性能と速度を制限したスパース方式で、動作と検出の特徴を冗長に抽出するか、動作モデルを監督するかのいずれかであった。
そこで本研究では,最小コストで高精度な動作モデリングを実現するためのフロー・バイ・検出モジュールを提案する。
従来の作業で無視された動きの長期化問題に着目して、フロー誘導マージン損失は、大きな移動物体のより完全な訓練を可能にするように設計されている。
大規模な不規則な動きを伴う物体の追跡と,UAV-MOTタスクにおける既存の最先端手法よりも優れていることを示す。
関連論文リスト
- MambaTrack: A Simple Baseline for Multiple Object Tracking with State Space Model [18.607106274732885]
我々は、MTP(Mamba moTion Predictor)という、マンバをベースとしたモーションモデルを導入する。
MTPは、物体の時空間的位置ダイナミクスを入力として、バイマンバ符号化層を用いて動きパターンをキャプチャし、次の動きを予測する。
提案するトラッカーであるMambaTrackは、DancetrackやSportsMOTなどのベンチマークで高度なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-08-17T11:58:47Z) - MotionFollower: Editing Video Motion via Lightweight Score-Guided Diffusion [94.66090422753126]
MotionFollowerは、ビデオモーション編集のための軽量なスコア誘導拡散モデルである。
優れたモーション編集性能を提供し、大きなカメラの動きとアクションのみをサポートする。
最新のモーション編集モデルであるMotionEditorと比較して、MotionFollowerはGPUメモリの約80%の削減を実現している。
論文 参考訳(メタデータ) (2024-05-30T17:57:30Z) - ETTrack: Enhanced Temporal Motion Predictor for Multi-Object Tracking [4.250337979548885]
時間的動き予測器であるETTrackを用いた動きに基づくMOT手法を提案する。
具体的には、動作予測器は、変換器モデルと時間畳み込みネットワーク(TCN)を統合して、短期および長期の動作パターンをキャプチャする。
本研究では,DanceTrackとSportsMOTの最先端トラッカーと比較して,ETTrackの競争性能が向上していることを示す。
論文 参考訳(メタデータ) (2024-05-24T17:51:33Z) - Motion-adaptive Separable Collaborative Filters for Blind Motion Deblurring [71.60457491155451]
様々な動きによって生じる画像のぼかしを除去することは、難しい問題である。
本研究では,動き適応型分離型協調フィルタと呼ばれる実世界のデブロアリングフィルタモデルを提案する。
本手法は,実世界の動きのぼかし除去に有効な解法を提供し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-04-19T19:44:24Z) - Spectral Motion Alignment for Video Motion Transfer using Diffusion Models [54.32923808964701]
スペクトル運動アライメント(英: Spectral Motion Alignment、SMA)は、フーリエ変換とウェーブレット変換を用いて運動ベクトルを洗練・整列するフレームワークである。
SMAは周波数領域の正規化を取り入れて動きパターンを学習し、全体フレームのグローバルな動きのダイナミクスの学習を容易にする。
大規模な実験は、様々なビデオカスタマイズフレームワーク間の計算効率と互換性を維持しながら、モーション転送を改善するSMAの有効性を示す。
論文 参考訳(メタデータ) (2024-03-22T14:47:18Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - FOLT: Fast Multiple Object Tracking from UAV-captured Videos Based on
Optical Flow [27.621524657473945]
複数物体追跡(MOT)はコンピュータビジョンにおいてよく研究されている。
しかし、無人航空機(UAV)が撮影したビデオのMOTは、小さな物体の大きさ、ぼやけた物体の外観、そして非常に大きくて不規則な動きのために依然として困難である。
我々はこれらの問題を緩和し、UAVビューで高速かつ正確なMOTに到達するためにFOLTを提案する。
論文 参考訳(メタデータ) (2023-08-14T15:24:44Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Spatio-Temporal Action Detection Under Large Motion [86.3220533375967]
大アクション下での動作検出における立方体認識機能アグリゲーションの性能について検討した。
本研究では,アクターをトラッキングし,各トラックに沿って時間的特徴アグリゲーションを行うことにより,大きな動作下でのアクター表現を強化することを提案する。
その結果,立方体認識機能アグリゲーションは,立方体認識ベースラインに比べて動作検出性能が向上することがわかった。
論文 参考訳(メタデータ) (2022-09-06T06:55:26Z) - VM-MODNet: Vehicle Motion aware Moving Object Detection for Autonomous
Driving [3.6550372593827887]
移動物体検出(MOD)は自律運転において重要な課題である。
我々は,車両の運動情報を活用し,モデルに入力し,自我運動に基づく適応機構を実現することを目的とする。
Vehicle Motion (VMT) を用いたモデルでは,ベースラインアーキテクチャよりもmIoUが5.6%向上した。
論文 参考訳(メタデータ) (2021-04-22T10:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。