論文の概要: Multi-Object Tracking with Deep Learning Ensemble for Unmanned Aerial
System Applications
- arxiv url: http://arxiv.org/abs/2110.02044v1
- Date: Tue, 5 Oct 2021 13:50:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 14:18:11.849130
- Title: Multi-Object Tracking with Deep Learning Ensemble for Unmanned Aerial
System Applications
- Title(参考訳): 無人航空システムのための深層学習アンサンブルを用いた多対象追跡
- Authors: Wanlin Xie, Jaime Ide, Daniel Izadi, Sean Banger, Thayne Walker, Ryan
Ceresani, Dylan Spagnuolo, Christopher Guagliano, Henry Diaz, Jason Twedt
- Abstract要約: 多目的追跡(MOT)は、軍事防衛分野における状況認識の重要な構成要素である。
本稿では,リアルタイムな状況下での騒音に対応するために,頑健なオブジェクト追跡アーキテクチャを提案する。
本稿では,遅延空間における実体軌道の予測にシーケンス・ツー・シーケンス・アーキテクチャを用いる,Deep Extended Kalman Filter (DeepEKF) と呼ばれるキネマティックな予測モデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-object tracking (MOT) is a crucial component of situational awareness
in military defense applications. With the growing use of unmanned aerial
systems (UASs), MOT methods for aerial surveillance is in high demand.
Application of MOT in UAS presents specific challenges such as moving sensor,
changing zoom levels, dynamic background, illumination changes, obscurations
and small objects. In this work, we present a robust object tracking
architecture aimed to accommodate for the noise in real-time situations. We
propose a kinematic prediction model, called Deep Extended Kalman Filter
(DeepEKF), in which a sequence-to-sequence architecture is used to predict
entity trajectories in latent space. DeepEKF utilizes a learned image embedding
along with an attention mechanism trained to weight the importance of areas in
an image to predict future states. For the visual scoring, we experiment with
different similarity measures to calculate distance based on entity
appearances, including a convolutional neural network (CNN) encoder,
pre-trained using Siamese networks. In initial evaluation experiments, we show
that our method, combining scoring structure of the kinematic and visual models
within a MHT framework, has improved performance especially in edge cases where
entity motion is unpredictable, or the data presents frames with significant
gaps.
- Abstract(参考訳): 多目的追跡(MOT)は、軍事防衛分野における状況認識の重要な構成要素である。
無人航空機システム(uass)の普及に伴い、航空監視のためのmot手法が需要が高まっている。
uasにおけるmotの適用は、移動センサー、ズームレベルの変更、ダイナミック背景、照明変化、ぼけ、小さな物体など、特定の課題を示している。
本稿では,リアルタイム環境における雑音に対応するためのロバストなオブジェクトトラッキングアーキテクチャを提案する。
本稿では,遅延空間における実体軌道の予測にシーケンス・ツー・シーケンス・アーキテクチャを用いる,Deep Extended Kalman Filter (DeepEKF) と呼ばれるキネマティックな予測モデルを提案する。
deepekfは学習した画像埋め込みと、画像内の領域の重要性を強調して将来の状態を予測できるように訓練された注意機構を利用する。
視覚的スコアリングのために,siameseネットワークを用いて事前学習した畳み込みニューラルネットワーク(cnn)エンコーダを含む,エンティティの出現に基づいて距離を計算するための類似度尺度を実験した。
初期評価実験では,MHTフレームワーク内での運動モデルと視覚モデルのスコアリング構造を組み合わせた手法により,実体運動が予測不可能なエッジケースや,大きなギャップを持つフレームを提示する場合に,特に性能が向上したことを示す。
関連論文リスト
- A Cross-Scene Benchmark for Open-World Drone Active Tracking [54.235808061746525]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATと呼ばれるオープンワールドドローンアクティブトラッキングのためのクロスシーンクロスドメインベンチマークを提案する。
また、R-VATと呼ばれる強化学習に基づくドローン追跡手法を提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - STCMOT: Spatio-Temporal Cohesion Learning for UAV-Based Multiple Object Tracking [13.269416985959404]
無人航空機(UAV)ビデオにおける複数物体追跡(MOT)は、コンピュータビジョンにおける多様な用途において重要である。
時空間結合型多目的追跡フレームワーク(STCMOT)を提案する。
歴史的埋め込み機能を用いて,ReIDの表現と検出機能を逐次的にモデル化する。
我々のフレームワークはMOTAとIDF1メトリクスで新しい最先端のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2024-09-17T14:34:18Z) - TK-Planes: Tiered K-Planes with High Dimensional Feature Vectors for Dynamic UAV-based Scenes [58.180556221044235]
本研究では,無人航空機(UAV)の認識における合成データと実世界データとの領域ギャップを埋める新しい手法を提案する。
私たちの定式化は、小さな動く物体や人間の行動からなる動的なシーンのために設計されています。
我々は,Okutama ActionやUG2など,挑戦的なデータセットの性能を評価する。
論文 参考訳(メタデータ) (2024-05-04T21:55:33Z) - PhyOT: Physics-informed object tracking in surveillance cameras [0.2633434651741688]
深層ニューラルネットワークをセンサとして概念化するハイブリッドモデル(PhyOT)について検討する。
実験では,3つのニューラルネットワーク,動作位置,間接速度,加速度推定をそれぞれ組み合わせて,その定式化を2つのベンチマークデータセットで評価した。
結果は、我々のPhyOTが最先端のディープニューラルネットワークが失敗する極端な条件下で物体を追跡することを示唆している。
論文 参考訳(メタデータ) (2023-12-14T04:15:55Z) - Dyna-DepthFormer: Multi-frame Transformer for Self-Supervised Depth
Estimation in Dynamic Scenes [19.810725397641406]
シーン深度と3次元運動場を協調的に予測する新しいDyna-Depthformerフレームワークを提案する。
まず,多視点の相関を一連の自己・横断的層を通じて活用し,深度特徴表現の強化を図る。
第2に,動的物体の運動場をセマンティック・プレセプションを使わずに推定するワーピングに基づく運動ネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-14T09:43:23Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Motion-aware Memory Network for Fast Video Salient Object Detection [15.967509480432266]
我々は、隣接するフレームから現在のフレームの有用な時間情報をVSODの時間枝として抽出する時空間メモリ(STM)ベースのネットワークを設計する。
符号化段階では、電流とその隣接するフレームから高次特徴を用いて高次時間特徴を生成する。
復号化段階では,空間的および時間的分岐に対する効果的な融合戦略を提案する。
提案モデルでは,光学フローなどの前処理を必要とせず,推定時に100FPS近い速度に達することができる。
論文 参考訳(メタデータ) (2022-08-01T15:56:19Z) - Space Non-cooperative Object Active Tracking with Deep Reinforcement
Learning [1.212848031108815]
DRLAVTと命名されたDQNアルゴリズムに基づくエンドツーエンドのアクティブなトラッキング手法を提案する。
追尾宇宙船のアプローチを、色やRGBD画像にのみ依存した任意の空間の非協力目標に導くことができる。
位置ベースのビジュアルサーボベースラインアルゴリズムでは、最先端の2DモノクロトラッカーであるSiamRPNをはるかに上回っている。
論文 参考訳(メタデータ) (2021-12-18T06:12:24Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。