論文の概要: Tracking the Untrackable
- arxiv url: http://arxiv.org/abs/2007.10148v1
- Date: Fri, 17 Jul 2020 16:17:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-11-09 14:40:08.408674
- Title: Tracking the Untrackable
- Title(参考訳): Untrackable の追跡
- Authors: Fangyi Zhang
- Abstract要約: 人間は、ターゲットが見えない場合でも、ターゲットの軌道を予測して、ターゲットをキャッチアップすることができる。
近年の心理学では、人類が未来の精神像を造ることも示されている。
将来のフレームの視覚的特徴埋め込みを予測できるHAllucinating Features to Trackモデルを提案する。
- 参考スコア(独自算出の注目度): 2.0363692474266335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although short-term fully occlusion happens rare in visual object tracking,
most trackers will fail under these circumstances. However, humans can still
catch up the target by anticipating the trajectory of the target even the
target is invisible. Recent psychology also has shown that humans build the
mental image of the future. Inspired by that, we present a HAllucinating
Features to Track (HAFT) model that enables to forecast the visual feature
embedding of future frames. The anticipated future frames focus on the movement
of the target while hallucinating the occluded part of the target. Jointly
tracking on the hallucinated features and the real features improves the
robustness of the tracker even when the target is highly occluded. Through
extensive experimental evaluations, we achieve promising results on multiple
datasets: OTB100, VOT2018, LaSOT, TrackingNet, and UAV123.
- Abstract(参考訳): 短期的完全閉塞は視覚物体追跡では稀だが、ほとんどのトラッカーはこのような状況下では失敗する。
しかし、目標が見えない場合でも、目標の軌道を予測して目標をキャッチアップすることができる。
近年の心理学では、人類が未来の精神像を造ることも示されている。
そこで我々は,将来的なフレームの視覚的特徴の埋め込みを予測可能なhaftモデル追跡のための幻覚的機能を提案する。
予測される将来のフレームは、ターゲットの閉ざされた部分を幻覚しながら、ターゲットの動きに焦点を当てる。
幻覚特徴と実際の特徴の同時追跡は、目標が高度に隠蔽されている場合でも、トラッカーの堅牢性を向上させる。
実験により, otb100, vot2018, lasot, trackingnet, uav123など複数のデータセットで有望な結果を得た。
関連論文リスト
- MotionTrack: Learning Robust Short-term and Long-term Motions for
Multi-Object Tracking [56.92165669843006]
本研究では,短時間から長期間の軌跡を関連づける統合フレームワークで,堅牢な短期・長期動作を学習するMotionTrackを提案する。
密集した群集に対して,各ターゲットの複雑な動きを推定できる,短時間の軌跡から相互作用認識動作を学習するための新しい対話モジュールを設計する。
極端なオクルージョンのために、ターゲットの履歴軌跡から信頼できる長期動作を学習するための新しいRefind Moduleを構築し、中断された軌跡とそれに対応する検出とを関連付けることができる。
論文 参考訳(メタデータ) (2023-03-18T12:38:33Z) - Quo Vadis: Is Trajectory Forecasting the Key Towards Long-Term
Multi-Object Tracking? [1.0753191494611891]
最先端のオブジェクトトラッカーは、3秒未満のオクルージョンの10%未満しかブリッジしない。
移動エージェントの軌道予測が小さい場合でも,この探索空間は著しく減少することを示す。
これにより、MOTChallengeデータセットの最先端トラッカーを前進させ、長期追跡性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-10-14T10:07:41Z) - Learning Target Candidate Association to Keep Track of What Not to Track [100.80610986625693]
目標を追尾し続けるために、逸脱物を追跡することを提案します。
視覚的トラッキングにおいて, トラクタオブジェクト間の接地トルース対応を欠く問題に対処するために, 部分アノテーションと自己監督を組み合わせたトレーニング戦略を提案する。
我々のトラッカーは6つのベンチマークで新しい最先端のベンチマークを設定し、AUCスコアはLaSOTで67.2%、OxUvA長期データセットで+6.1%向上した。
論文 参考訳(メタデータ) (2021-03-30T17:58:02Z) - Detecting Invisible People [58.49425715635312]
我々は,追跡ベンチマークを再利用し,目立たない物体を検出するための新しい指標を提案する。
私たちは、現在の検出および追跡システムがこのタスクで劇的に悪化することを実証します。
第2に,最先端の単眼深度推定ネットワークによる観測結果を用いて,3次元で明示的に推論する動的モデルを構築した。
論文 参考訳(メタデータ) (2020-12-15T16:54:45Z) - Probabilistic Tracklet Scoring and Inpainting for Multiple Object
Tracking [83.75789829291475]
本稿では,トラックレット提案の確率的自己回帰運動モデルを提案する。
これは、我々のモデルを訓練して、自然のトラックレットの基盤となる分布を学習することで達成される。
我々の実験は、挑戦的なシーケンスにおける物体の追跡におけるアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2020-12-03T23:59:27Z) - Object Tracking Using Spatio-Temporal Future Prediction [41.33609264685531]
本研究では,背景動きのモデル化と軌跡予測を考慮した学習に基づく追跡手法を提案する。
我々の軌道予測モジュールは、対象物体の過去の軌道に基づいて、現在および将来のフレームにおける対象物体の位置を予測する。
外観に基づくトラッカーと軌道予測を動的に切り替えるために,トラッキング予測の精度を評価するネットワークを用いる。
論文 参考訳(メタデータ) (2020-10-15T09:02:50Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z) - ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking [80.02322563402758]
オンラインマルチオブジェクトトラッキング(MOT)フレームワークの中核的なコンポーネントの1つは、既存のトラックレットと新しい検出を関連付けることである。
そこで我々は,トラックレットが自然運動を表す可能性を直接測定することにより,トラックレットの提案を評価する確率論的自己回帰生成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-16T06:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。