論文の概要: Propagate And Calibrate: Real-time Passive Non-line-of-sight Tracking
- arxiv url: http://arxiv.org/abs/2303.11791v2
- Date: Mon, 27 Mar 2023 10:11:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 23:18:44.468144
- Title: Propagate And Calibrate: Real-time Passive Non-line-of-sight Tracking
- Title(参考訳): PropagateとCalibrate:リアルタイムの非視線追跡
- Authors: Yihao Wang, Zhigang Wang, Bin Zhao, Dong Wang, Mulin Chen, Xuelong Li
- Abstract要約: 本研究では,リレー壁のみを観察することで,見えない部屋を歩いている人を追跡する純粋受動的手法を提案する。
本研究では,リレー壁の映像の非知覚的変化を発掘するため,時間的局所的な動きの伝達に欠かせない特徴として差分フレームを導入する。
提案手法を評価するため,最初の動的受動NLOS追跡データセットであるNLOS-Trackを構築し,公開する。
- 参考スコア(独自算出の注目度): 84.38335117043907
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Non-line-of-sight (NLOS) tracking has drawn increasing attention in recent
years, due to its ability to detect object motion out of sight. Most previous
works on NLOS tracking rely on active illumination, e.g., laser, and suffer
from high cost and elaborate experimental conditions. Besides, these techniques
are still far from practical application due to oversimplified settings. In
contrast, we propose a purely passive method to track a person walking in an
invisible room by only observing a relay wall, which is more in line with real
application scenarios, e.g., security. To excavate imperceptible changes in
videos of the relay wall, we introduce difference frames as an essential
carrier of temporal-local motion messages. In addition, we propose PAC-Net,
which consists of alternating propagation and calibration, making it capable of
leveraging both dynamic and static messages on a frame-level granularity. To
evaluate the proposed method, we build and publish the first dynamic passive
NLOS tracking dataset, NLOS-Track, which fills the vacuum of realistic NLOS
datasets. NLOS-Track contains thousands of NLOS video clips and corresponding
trajectories. Both real-shot and synthetic data are included. Our codes and
dataset are available at https://againstentropy.github.io/NLOS-Track/.
- Abstract(参考訳): 非視線追跡(NLOS)は、視界外からの物体の動きを検出する能力によって近年注目を集めている。
nlos追跡に関する以前のほとんどの作業は、例えばレーザーのようなアクティブな照明に依存しており、高いコストと精巧な実験条件に苦しめられている。
さらに、これらのテクニックは、過度に単純化された設定のため、実用には程遠い。
対照的に,リレー壁を観察することによって,目に見えない部屋を歩く人物を追跡する純粋受動的手法を提案する。
中継壁の映像の知覚不能な変化を抽出するために,時間的局所的動きの伝達源として差分フレームを導入する。
さらに,フレームレベルの粒度に動的メッセージと静的メッセージの両方を活用できるように,伝搬と校正を交互に行うPAC-Netを提案する。
提案手法を評価するため,我々は,現実的なNLOSデータセットの真空を埋める最初の動的受動NLOS追跡データセットであるNLOS-Trackを構築し,公開する。
NLOS-Trackには何千ものNLOSビデオクリップと対応する軌跡が含まれている。
実写データと合成データの両方を含んでいる。
私たちのコードとデータセットはhttps://againstentropy.github.io/nlos-track/で利用可能です。
関連論文リスト
- PathFinder: Attention-Driven Dynamic Non-Line-of-Sight Tracking with a Mobile Robot [3.387892563308912]
注目型ニューラルネットワークを用いてLOS(Line-of-sight)ビデオにおける動的逐次フレームのシーケンスを処理する新しい手法を提案する。
我々は,映像撮影のためのドローンによる現場撮影のアプローチを検証し,ダイナミックキャプチャ環境での低コストなNLOSイメージングを実証した。
論文 参考訳(メタデータ) (2024-04-07T17:31:53Z) - Dense Optical Tracking: Connecting the Dots [82.79642869586587]
DOTは、ビデオにおけるポイントトラッキングの問題を解決するための、新しくてシンプルで効率的な方法である。
OmniMotionのような高度な"ユニバーサルトラッカー"を上回り、CoTrackerのような最良のポイントトラッキングアルゴリズムと同等か、あるいはそれ以上の精度で、DOTが現在の光フロー技術よりもはるかに正確であることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:59:59Z) - BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in Bird's-Eye View [56.77287041917277]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションに不可欠なことを証明している。
本稿では,単純で効果的なベースライン手法であるBEVTrackを提案する。
Bird's-Eye View (BEV) における目標運動を推定して追跡を行うことにより、BEVTrackは、ネットワーク設計、トレーニング目標、トラッキングパイプラインなど、様々な側面から驚くほどの単純さを示しながら、優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z) - Iterative Scale-Up ExpansionIoU and Deep Features Association for
Multi-Object Tracking in Sports [26.33239898091364]
本稿では,スポーツシナリオに対するDeep ExpansionIoU (Deep-EIoU) という,オンラインかつ堅牢な多対象追跡手法を提案する。
従来の手法とは異なり、カルマンフィルタの使用を放棄し、スポーツシナリオにおける拡張IoUの反復的なスケールアップと深い特徴を活用して、ロバストなトラッキングを行う。
提案手法は,SportsMOTデータセットで77.2%,SportsNet-Trackingデータセットで85.4%を達成し,不規則な動き物体の追跡に顕著な効果を示した。
論文 参考訳(メタデータ) (2023-06-22T17:47:08Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - CXTrack: Improving 3D Point Cloud Tracking with Contextual Information [59.55870742072618]
3Dオブジェクトトラッキングは、自律運転など、多くのアプリケーションにおいて重要な役割を果たす。
CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークである。
CXTrackは29FPSで動作しながら最先端のトラッキング性能を実現する。
論文 参考訳(メタデータ) (2022-11-12T11:29:01Z) - Track without Appearance: Learn Box and Tracklet Embedding with Local
and Global Motion Patterns for Vehicle Tracking [45.524183249765244]
車両追跡は多目的追跡(MOT)分野において重要な課題である。
本稿では,外見情報のない車両追跡における動作パターンの重要性について検討する。
本稿では, 長期追跡のための関連課題を, 排他的かつ完全な運動情報を用いて解決する手法を提案する。
論文 参考訳(メタデータ) (2021-08-13T02:27:09Z) - Model-free Vehicle Tracking and State Estimation in Point Cloud
Sequences [17.351635242415703]
モデルフリーの単一オブジェクト追跡(SOT)という、この問題の新しい設定について研究する。
SOTは第1フレームのオブジェクト状態を入力とし、その後のフレームにおける状態推定と追跡を共同で解決する。
そこで我々は,点群登録,車両形状,動作優先度に基づく最適化アルゴリズムSOTrackerを提案する。
論文 参考訳(メタデータ) (2021-03-10T13:01:26Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。