論文の概要: MM-Tracker: Motion Mamba with Margin Loss for UAV-platform Multiple Object Tracking
- arxiv url: http://arxiv.org/abs/2407.10485v2
- Date: Sat, 17 Aug 2024 15:42:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 02:09:01.284399
- Title: MM-Tracker: Motion Mamba with Margin Loss for UAV-platform Multiple Object Tracking
- Title(参考訳): MM-Tracker:UAVプラットフォーム多目的追跡のためのマージン損失付きモーションマンバ
- Authors: Mufeng Yao, Jinlong Peng, Qingdong He, Bo Peng, Hao Chen, Mingmin Chi, Chao Liu, Jon Atli Benediktsson,
- Abstract要約: 無人航空機プラットフォームからの複数の物体追跡(MOT)には、効率的なモーションモデリングが必要である。
本研究では,ローカル・グローバル両方の動作特徴を探索するMotion Mamba Moduleを提案する。
また,動きのぼやけた物体の検出精度を効果的に向上するために,運動マージンの損失を設計する。
Motion Mambaモジュールとモーションマージンの損失に基づいて、提案したMM-Trackerは、2つの広くオープンソースUAV-MOTデータセットで最先端のデータを上回ります。
- 参考スコア(独自算出の注目度): 12.326023523101806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple object tracking (MOT) from unmanned aerial vehicle (UAV) platforms requires efficient motion modeling. This is because UAV-MOT faces both local object motion and global camera motion. Motion blur also increases the difficulty of detecting large moving objects. Previous UAV motion modeling approaches either focus only on local motion or ignore motion blurring effects, thus limiting their tracking performance and speed. To address these issues, we propose the Motion Mamba Module, which explores both local and global motion features through cross-correlation and bi-directional Mamba Modules for better motion modeling. To address the detection difficulties caused by motion blur, we also design motion margin loss to effectively improve the detection accuracy of motion blurred objects. Based on the Motion Mamba module and motion margin loss, our proposed MM-Tracker surpasses the state-of-the-art in two widely open-source UAV-MOT datasets. Code will be available.
- Abstract(参考訳): 無人航空機(UAV)プラットフォームからの複数の物体追跡(MOT)には、効率的なモーションモデリングが必要である。
これは、UAV-MOTが局所的な物体の動きとグローバルなカメラの動きの両方に直面しているためである。
動きのぼかしは、大きな動く物体を検出することの難しさも増す。
従来のUAVモーションモデリング手法は、局所的な動きのみに焦点を当てるか、動きのぼかし効果を無視し、追跡性能と速度を制限していた。
これらの問題に対処するため、我々は、より優れたモーションモデリングのために、クロスコリレーションと双方向のマンバモジュールを用いて、局所的およびグローバルなモーション特徴を探索するモーション・マンバ・モジュールを提案する。
動きのぼやけによる検出の難しさに対処するため,動きのぼやけた物体の検出精度を効果的に向上する運動マージンの損失を設計する。
Motion Mambaモジュールとモーションマージンの損失に基づいて、提案したMM-Trackerは、2つの広くオープンソースUAV-MOTデータセットで最先端のデータを上回ります。
コードは利用可能です。
関連論文リスト
- MambaTrack: A Simple Baseline for Multiple Object Tracking with State Space Model [18.607106274732885]
我々は、MTP(Mamba moTion Predictor)という、マンバをベースとしたモーションモデルを導入する。
MTPは、物体の時空間的位置ダイナミクスを入力として、バイマンバ符号化層を用いて動きパターンをキャプチャし、次の動きを予測する。
提案するトラッカーであるMambaTrackは、DancetrackやSportsMOTなどのベンチマークで高度なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-08-17T11:58:47Z) - MotionFollower: Editing Video Motion via Lightweight Score-Guided Diffusion [94.66090422753126]
MotionFollowerは、ビデオモーション編集のための軽量なスコア誘導拡散モデルである。
優れたモーション編集性能を提供し、大きなカメラの動きとアクションのみをサポートする。
最新のモーション編集モデルであるMotionEditorと比較して、MotionFollowerはGPUメモリの約80%の削減を実現している。
論文 参考訳(メタデータ) (2024-05-30T17:57:30Z) - ETTrack: Enhanced Temporal Motion Predictor for Multi-Object Tracking [4.250337979548885]
時間的動き予測器であるETTrackを用いた動きに基づくMOT手法を提案する。
具体的には、動作予測器は、変換器モデルと時間畳み込みネットワーク(TCN)を統合して、短期および長期の動作パターンをキャプチャする。
本研究では,DanceTrackとSportsMOTの最先端トラッカーと比較して,ETTrackの競争性能が向上していることを示す。
論文 参考訳(メタデータ) (2024-05-24T17:51:33Z) - Motion-adaptive Separable Collaborative Filters for Blind Motion Deblurring [71.60457491155451]
様々な動きによって生じる画像のぼかしを除去することは、難しい問題である。
本研究では,動き適応型分離型協調フィルタと呼ばれる実世界のデブロアリングフィルタモデルを提案する。
本手法は,実世界の動きのぼかし除去に有効な解法を提供し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-04-19T19:44:24Z) - Spectral Motion Alignment for Video Motion Transfer using Diffusion Models [54.32923808964701]
スペクトル運動アライメント(英: Spectral Motion Alignment、SMA)は、フーリエ変換とウェーブレット変換を用いて運動ベクトルを洗練・整列するフレームワークである。
SMAは周波数領域の正規化を取り入れて動きパターンを学習し、全体フレームのグローバルな動きのダイナミクスの学習を容易にする。
大規模な実験は、様々なビデオカスタマイズフレームワーク間の計算効率と互換性を維持しながら、モーション転送を改善するSMAの有効性を示す。
論文 参考訳(メタデータ) (2024-03-22T14:47:18Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - FOLT: Fast Multiple Object Tracking from UAV-captured Videos Based on
Optical Flow [27.621524657473945]
複数物体追跡(MOT)はコンピュータビジョンにおいてよく研究されている。
しかし、無人航空機(UAV)が撮影したビデオのMOTは、小さな物体の大きさ、ぼやけた物体の外観、そして非常に大きくて不規則な動きのために依然として困難である。
我々はこれらの問題を緩和し、UAVビューで高速かつ正確なMOTに到達するためにFOLTを提案する。
論文 参考訳(メタデータ) (2023-08-14T15:24:44Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Spatio-Temporal Action Detection Under Large Motion [86.3220533375967]
大アクション下での動作検出における立方体認識機能アグリゲーションの性能について検討した。
本研究では,アクターをトラッキングし,各トラックに沿って時間的特徴アグリゲーションを行うことにより,大きな動作下でのアクター表現を強化することを提案する。
その結果,立方体認識機能アグリゲーションは,立方体認識ベースラインに比べて動作検出性能が向上することがわかった。
論文 参考訳(メタデータ) (2022-09-06T06:55:26Z) - VM-MODNet: Vehicle Motion aware Moving Object Detection for Autonomous
Driving [3.6550372593827887]
移動物体検出(MOD)は自律運転において重要な課題である。
我々は,車両の運動情報を活用し,モデルに入力し,自我運動に基づく適応機構を実現することを目的とする。
Vehicle Motion (VMT) を用いたモデルでは,ベースラインアーキテクチャよりもmIoUが5.6%向上した。
論文 参考訳(メタデータ) (2021-04-22T10:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。