論文の概要: Multi-Camera Trajectory Forecasting with Trajectory Tensors
- arxiv url: http://arxiv.org/abs/2108.04694v1
- Date: Tue, 10 Aug 2021 13:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 17:29:28.995663
- Title: Multi-Camera Trajectory Forecasting with Trajectory Tensors
- Title(参考訳): 軌道テンソルを用いたマルチカメラ軌道予測
- Authors: Olly Styles, Tanaya Guha and Victor Sanchez
- Abstract要約: 本稿では,移動物体の移動経路をカメラネットワーク上で予測するマルチカメラトラジェクトリ予測(MCTF)の問題を紹介する。
我々は,複数の視点から推定された全ての相対的対象位置を同時に利用するMCTFフレームワークを開発した。
我々のフレームワークは、オブジェクトがどのカメラに現れるか、そして、いつ、どこに現れるかを予測する、その時空のアプローチに従っています。
- 参考スコア(独自算出の注目度): 33.800753277951955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the problem of multi-camera trajectory forecasting (MCTF), which
involves predicting the trajectory of a moving object across a network of
cameras. While multi-camera setups are widespread for applications such as
surveillance and traffic monitoring, existing trajectory forecasting methods
typically focus on single-camera trajectory forecasting (SCTF), limiting their
use for such applications. Furthermore, using a single camera limits the
field-of-view available, making long-term trajectory forecasting impossible. We
address these shortcomings of SCTF by developing an MCTF framework that
simultaneously uses all estimated relative object locations from several
viewpoints and predicts the object's future location in all possible
viewpoints. Our framework follows a Which-When-Where approach that predicts in
which camera(s) the objects appear and when and where within the camera views
they appear. To this end, we propose the concept of trajectory tensors: a new
technique to encode trajectories across multiple camera views and the
associated uncertainties. We develop several encoder-decoder MCTF models for
trajectory tensors and present extensive experiments on our own database
(comprising 600 hours of video data from 15 camera views) created particularly
for the MCTF task. Results show that our trajectory tensor models outperform
coordinate trajectory-based MCTF models and existing SCTF methods adapted for
MCTF. Code is available from: https://github.com/olly-styles/Trajectory-Tensors
- Abstract(参考訳): 本稿では,移動物体の移動経路をカメラネットワーク上で予測するマルチカメラ軌道予測(MCTF)の問題を紹介する。
監視や交通監視などのアプリケーションでは、マルチカメラのセットアップが広く使われているが、既存のトラジェクトリ予測手法はシングルカメラトラジェクトリ予測(SCTF)に重点を置いており、そのようなアプリケーションの使用を制限する。
さらに、単一のカメラを使用すると視野が制限され、長期の軌道予測が不可能になる。
SCTFのこれらの欠点に対処するため、MCTFフレームワークを開発し、複数の視点から推定された全ての相対的対象位置を同時に利用し、可能な全ての視点で対象の将来の位置を予測する。
我々のフレームワークは、オブジェクトがどのカメラに現れるか、そして、いつ、どこに現れるかを予測する、その時空のアプローチに従っています。
この目的のために,複数のカメラビューと関連する不確実性にまたがる軌跡を符号化する新しい手法である軌道テンソルの概念を提案する。
トラジェクトリテンソルのためのエンコーダ・デコーダMCTFモデルを開発し、特にMCTFタスクのために作成したデータベース(15カメラビューから600時間のビデオデータを含む)で広範な実験を行う。
その結果, 軌道テンソルモデルは, 座標軌道に基づくMCTFモデルおよび既存のSCTF法よりも優れていた。
https://github.com/olly-styles/Trajectory-Tensors
関連論文リスト
- MCTR: Multi Camera Tracking Transformer [45.66952089591361]
Multi-Camera Tracking tRansformer (MCTR)は、マルチオブジェクト検出と複数のカメラ間のトラッキングに適した、エンドツーエンドのアプローチである。
MCTRは、Detector TRansformer (DETR)のようなエンドツーエンドの検出器を利用して、カメラビューごとに独立して検出および検出埋め込みを生成する。
このフレームワークは、追跡されたオブジェクトに関するグローバル情報を付加する一連のトラック埋め込みを維持し、ビュー固有の検出埋め込みからローカル情報を統合することで、各フレームでそれらを更新する。
論文 参考訳(メタデータ) (2024-08-23T17:37:03Z) - Zero-Shot Open-Vocabulary Tracking with Large Pre-Trained Models [28.304047711166056]
大規模事前訓練モデルでは、野生の2次元静的画像中の物体の検出とセグメンテーションの進歩が期待できる。
このような大規模なトレーニング済みの静的イメージモデルを,オープン語彙のビデオトラッキングに再利用することは可能だろうか?
本稿では,オープンボキャブラリ検出器,セグメンタ,高密度光流推定器を,任意のカテゴリの物体を2Dビデオで追跡・セグメント化するモデルに再構成する。
論文 参考訳(メタデータ) (2023-10-10T20:25:30Z) - TrajectoryFormer: 3D Object Tracking Transformer with Predictive
Trajectory Hypotheses [51.60422927416087]
3Dマルチオブジェクトトラッキング(MOT)は、自律走行車やサービスロボットを含む多くのアプリケーションにとって不可欠である。
本稿では,新しいポイントクラウドベースの3DMOTフレームワークであるTrjectoryFormerを紹介する。
論文 参考訳(メタデータ) (2023-06-09T13:31:50Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - RelPose: Predicting Probabilistic Relative Rotation for Single Objects
in the Wild [73.1276968007689]
本稿では、任意のオブジェクトの複数の画像からカメラ視点を推定するデータ駆動手法について述べる。
本手法は, 画像の鮮明さから, 最先端のSfM法とSLAM法より優れていることを示す。
論文 参考訳(メタデータ) (2022-08-11T17:59:59Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Multi-Object Tracking with Deep Learning Ensemble for Unmanned Aerial
System Applications [0.0]
多目的追跡(MOT)は、軍事防衛分野における状況認識の重要な構成要素である。
本稿では,リアルタイムな状況下での騒音に対応するために,頑健なオブジェクト追跡アーキテクチャを提案する。
本稿では,遅延空間における実体軌道の予測にシーケンス・ツー・シーケンス・アーキテクチャを用いる,Deep Extended Kalman Filter (DeepEKF) と呼ばれるキネマティックな予測モデルを提案する。
論文 参考訳(メタデータ) (2021-10-05T13:50:38Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - TrackFormer: Multi-Object Tracking with Transformers [92.25832593088421]
TrackFormerはエンコーダデコーダトランスフォーマーアーキテクチャに基づくエンドツーエンドのマルチオブジェクトトラッキングおよびセグメンテーションモデルです。
新しいトラッククエリはDETRオブジェクト検出器によって生成され、時間とともに対応するオブジェクトの位置を埋め込む。
trackformerは新しいトラッキング・バイ・アテンションパラダイムでフレーム間のシームレスなデータ関連付けを実現する。
論文 参考訳(メタデータ) (2021-01-07T18:59:29Z) - Multi-Camera Trajectory Forecasting: Pedestrian Trajectory Prediction in
a Network of Cameras [30.850667438230523]
本稿では,物体の将来の軌跡をカメラネットワークで予測するマルチカメラ軌道予測(MCTF)の課題を紹介する。
私たちの研究は、複数の重複しないカメラビューにまたがって予測する難しいシナリオを最初に検討したものです。
We release the Warwick-NTU Multi-camera Forecasting Database (WNMF), a unique data of multi-camera pedestrian trajectories from a network of 15 synchronized camera。
論文 参考訳(メタデータ) (2020-05-01T09:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。