論文の概要: Active Scout: Multi-Target Tracking Using Neural Radiance Fields in Dense Urban Environments
- arxiv url: http://arxiv.org/abs/2406.07431v1
- Date: Tue, 11 Jun 2024 16:34:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 15:05:20.286527
- Title: Active Scout: Multi-Target Tracking Using Neural Radiance Fields in Dense Urban Environments
- Title(参考訳): アクティブスカウト:高密度都市環境におけるニューラルラジアンスフィールドを用いた多目的追跡
- Authors: Christopher D. Hsu, Pratik Chaudhari,
- Abstract要約: 我々は、RGBと異なるバンテージポイントからの深度画像を使って、市内の神経放射野をオンラインで表現できることを示します。
この表現は、都市の未知の部分を探索し、ターゲットを追跡するための情報ゲインを計算するために使用される。
我々は、フィラデルフィアとニューヨーク市のオープンストリートマップデータを使ってカスタム構築されたシミュレーターを用いて、300ステップ以内に20の静止目標を探索、発見できることを示した。
- 参考スコア(独自算出の注目度): 20.779403190197844
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study pursuit-evasion games in highly occluded urban environments, e.g. tall buildings in a city, where a scout (quadrotor) tracks multiple dynamic targets on the ground. We show that we can build a neural radiance field (NeRF) representation of the city -- online -- using RGB and depth images from different vantage points. This representation is used to calculate the information gain to both explore unknown parts of the city and track the targets -- thereby giving a completely first-principles approach to actively tracking dynamic targets. We demonstrate, using a custom-built simulator using Open Street Maps data of Philadelphia and New York City, that we can explore and locate 20 stationary targets within 300 steps. This is slower than a greedy baseline which which does not use active perception. But for dynamic targets that actively hide behind occlusions, we show that our approach maintains, at worst, a tracking error of 200m; the greedy baseline can have a tracking error as large as 600m. We observe a number of interesting properties in the scout's policies, e.g., it switches its attention to track a different target periodically, as the quality of the NeRF representation improves over time, the scout also becomes better in terms of target tracking.
- Abstract(参考訳): 都市の高層建築物では, クワッドローター(クワッドローター)が地上の複数の動的目標を追跡するなど, 密集した都市環境下での追従回避ゲームについて検討する。
我々は、RGBと異なるバンテージポイントからの深度画像を使用して、都市のニューラルラディアンスフィールド(NeRF)をオンラインで構築できることを示します。
この表現は、都市の未知の部分を探索し、ターゲットを追跡するための情報ゲインを計算するために使われます。
我々は、フィラデルフィアとニューヨーク市のオープンストリートマップデータを使ってカスタム構築されたシミュレーターを用いて、300ステップ以内に20の静止目標を探索、発見できることを示した。
これは、アクティブな知覚を使用しない欲張りのベースラインよりも遅い。
しかし,オクルージョンの背後に積極的に隠れている動的ターゲットに対して,我々のアプローチは,最低でも200mの追尾誤差を保ち,グリーディベースラインは600mの追尾誤差を有することを示す。
例えば、NeRF表現の質が時間とともに向上するにつれて、スカウトのポリシーにおける多くの興味深い特性、例えば、その注意を異なる目標を周期的に追跡するように切り替える。
関連論文リスト
- Tracking Reflected Objects: A Benchmark [12.770787846444406]
我々は、反射オブジェクトのトラッキングに特化したベンチマークであるTROを紹介します。
TROは、約70,000フレームの200のシーケンスを含み、それぞれにバウンディングボックスを慎重にアノテートする。
より強力なベースラインを提供するために,階層的特徴を用いて性能を向上させる新しいトラッカーであるHiP-HaTrackを提案する。
論文 参考訳(メタデータ) (2024-07-07T02:22:45Z) - RTrack: Accelerating Convergence for Visual Object Tracking via
Pseudo-Boxes Exploration [3.29854706649876]
単一のオブジェクト追跡(SOT)は、ターゲットオブジェクトをバウンディングボックスとして表現することに大きく依存している。
本稿では,新しいオブジェクト表現ベースライントラッカーRTrackを提案する。
RTrackは自動的に点を配置して空間範囲を定義し、局所領域をハイライトする。
論文 参考訳(メタデータ) (2023-09-23T04:41:59Z) - BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in Bird's-Eye View [55.25826357436259]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションに不可欠なことを証明している。
本稿では,単純で効果的なベースライン手法であるBEVTrackを提案する。
Bird's-Eye View (BEV) における目標運動を推定して追跡を行うことにより、BEVTrackは、ネットワーク設計、トレーニング目標、トラッキングパイプラインなど、様々な側面から驚くほどの単純さを示しながら、優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z) - Detection, Tracking, and Counting Meets Drones in Crowds: A Benchmark [97.07865343576361]
DroneCrowdという新しいドローンキャプチャ型大規模データセットによるベンチマークを構築した。
私たちは4800万人の頭といくつかのビデオレベルの属性を持つ20,800人のトラジェクタに注釈を付けます。
我々は、密集した群衆の物体の検出、追跡、数え上げを行うための強力なベースラインとして、Space-Time Neighbor-Aware Network (STNNet)を設計する。
論文 参考訳(メタデータ) (2021-05-06T04:46:14Z) - Learning Target Candidate Association to Keep Track of What Not to Track [100.80610986625693]
目標を追尾し続けるために、逸脱物を追跡することを提案します。
視覚的トラッキングにおいて, トラクタオブジェクト間の接地トルース対応を欠く問題に対処するために, 部分アノテーションと自己監督を組み合わせたトレーニング戦略を提案する。
我々のトラッカーは6つのベンチマークで新しい最先端のベンチマークを設定し、AUCスコアはLaSOTで67.2%、OxUvA長期データセットで+6.1%向上した。
論文 参考訳(メタデータ) (2021-03-30T17:58:02Z) - ERASOR: Egocentric Ratio of Pseudo Occupancy-based Dynamic Object
Removal for Static 3D Point Cloud Map Building [0.1474723404975345]
本稿では,pSeudo Occupancy-based dynamic object Removal の ERASOR, Egocentric RAtio という新しい静的マップ構築手法を提案する。
私たちのアプローチは、必然的に地面と接触している都市環境における最もダイナミックなオブジェクトの性質にその注意を向けます。
論文 参考訳(メタデータ) (2021-03-07T10:29:07Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z) - Tracking Objects as Points [83.9217787335878]
同時に検出と追跡を同時に行うアルゴリズムは,最先端技術よりもシンプルで,高速で,高精度である。
トラッカーであるCenterTrackは、前のフレームから一対のイメージと検出に検出モデルを適用します。
CenterTrackはシンプルで、オンライン(未来を覗くことはない)で、リアルタイムだ。
論文 参考訳(メタデータ) (2020-04-02T17:58:40Z) - Know Your Surroundings: Exploiting Scene Information for Object Tracking [181.1750279330811]
現在の最先端トラッカーは、各フレーム内のオブジェクトをローカライズするためにターゲットの外観モデルのみに依存している。
本研究では,トラッキングにシーン情報を利用する新しいトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-24T17:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。