論文の概要: Visual Object Tracking in First Person Vision
- arxiv url: http://arxiv.org/abs/2209.13502v1
- Date: Tue, 27 Sep 2022 16:18:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 15:52:21.163388
- Title: Visual Object Tracking in First Person Vision
- Title(参考訳): ファーストパーソンビジョンにおける視覚物体追跡
- Authors: Matteo Dunnhofer, Antonino Furnari, Giovanni Maria Farinella,
Christian Micheloni
- Abstract要約: この研究は、150の濃密な注釈付きビデオシーケンスからなる新しいベンチマークデータセットであるTREK-150の導入によって実現された。
その結果、FPVにおける物体追跡は、現在の視覚トラッカーに新たな課題をもたらすことが示された。
- 参考スコア(独自算出の注目度): 33.62651949312872
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The understanding of human-object interactions is fundamental in First Person
Vision (FPV). Visual tracking algorithms which follow the objects manipulated
by the camera wearer can provide useful information to effectively model such
interactions. In the last years, the computer vision community has
significantly improved the performance of tracking algorithms for a large
variety of target objects and scenarios. Despite a few previous attempts to
exploit trackers in the FPV domain, a methodical analysis of the performance of
state-of-the-art trackers is still missing. This research gap raises the
question of whether current solutions can be used ``off-the-shelf'' or more
domain-specific investigations should be carried out. This paper aims to
provide answers to such questions. We present the first systematic
investigation of single object tracking in FPV. Our study extensively analyses
the performance of 42 algorithms including generic object trackers and baseline
FPV-specific trackers. The analysis is carried out by focusing on different
aspects of the FPV setting, introducing new performance measures, and in
relation to FPV-specific tasks. The study is made possible through the
introduction of TREK-150, a novel benchmark dataset composed of 150 densely
annotated video sequences. Our results show that object tracking in FPV poses
new challenges to current visual trackers. We highlight the factors causing
such behavior and point out possible research directions. Despite their
difficulties, we prove that trackers bring benefits to FPV downstream tasks
requiring short-term object tracking. We expect that generic object tracking
will gain popularity in FPV as new and FPV-specific methodologies are
investigated.
- Abstract(参考訳): 人間と物体の相互作用を理解することは、第一人物ビジョン(FPV)の基本である。
カメラ装着者が操作するオブジェクトに追従する視覚追跡アルゴリズムは、そのようなインタラクションを効果的にモデル化するための有用な情報を提供することができる。
過去数年間、コンピュータビジョンコミュニティは、多種多様な対象オブジェクトとシナリオの追跡アルゴリズムのパフォーマンスを大幅に改善した。
FPVドメインにおけるトラッカーの活用の試みはいくつかあったが、最先端トラッカーの性能に関する方法論的な分析はいまだに欠落している。
この研究ギャップは、現在の解決策が 'off-the-shelf'' あるいはもっとドメイン固有の調査に使えるかどうかという問題を提起する。
本稿では,そのような質問に対する回答の提供を目的とする。
FPVにおける単一物体追跡の最初の体系的な研究について述べる。
本研究は,ジェネリックオブジェクトトラッカーやベースラインFPVトラッカーを含む42のアルゴリズムの性能を広範囲に解析する。
分析は、FPV設定の異なる側面に着目し、新しいパフォーマンス対策を導入し、FPV固有のタスクに関連して行う。
この研究は、150の注釈付きビデオシーケンスからなる新しいベンチマークデータセットであるtrek-150の導入によって可能となった。
その結果、FPVにおける物体追跡は、現在の視覚トラッカーに新たな課題をもたらすことが示された。
このような行動を引き起こす要因を強調し,研究の方向性を指摘する。
その困難にもかかわらず、トラッカーは短期的なオブジェクト追跡を必要とするfpvダウンストリームタスクに恩恵をもたらすことを証明します。
我々は、新しいFPV特有の手法が研究されるにつれて、汎用オブジェクト追跡がFPVで人気になることを期待している。
関連論文リスト
- SFTrack: A Robust Scale and Motion Adaptive Algorithm for Tracking Small and Fast Moving Objects [2.9803250365852443]
本稿では,無人航空機(UAV)映像における多物体追跡の問題に対処する。
交通監視システムや警察によるリアルタイム容疑者追跡など、様々なUAVアプリケーションにおいて重要な役割を果たしている。
低信頼度検出から対象物体の追跡を開始する新しい追跡戦略を提案する。
論文 参考訳(メタデータ) (2024-10-26T05:09:20Z) - Tracking Reflected Objects: A Benchmark [12.770787846444406]
我々は、反射オブジェクトのトラッキングに特化したベンチマークであるTROを紹介します。
TROは、約70,000フレームの200のシーケンスを含み、それぞれにバウンディングボックスを慎重にアノテートする。
より強力なベースラインを提供するために,階層的特徴を用いて性能を向上させる新しいトラッカーであるHiP-HaTrackを提案する。
論文 参考訳(メタデータ) (2024-07-07T02:22:45Z) - Tracking with Human-Intent Reasoning [64.69229729784008]
この作業では、新しいトラッキングタスクであるインストラクショントラッキングを提案している。
ビデオフレーム内で自動的にトラッキングを実行するようにトラッカーに要求する暗黙の追跡命令を提供する。
TrackGPTは複雑な推論ベースの追跡を行うことができる。
論文 参考訳(メタデータ) (2023-12-29T03:22:18Z) - BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in Bird's-Eye View [56.77287041917277]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションに不可欠なことを証明している。
本稿では,単純で効果的なベースライン手法であるBEVTrackを提案する。
Bird's-Eye View (BEV) における目標運動を推定して追跡を行うことにより、BEVTrackは、ネットワーク設計、トレーニング目標、トラッキングパイプラインなど、様々な側面から驚くほどの単純さを示しながら、優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z) - Tracking Anything in High Quality [63.63653185865726]
HQTrackは高品質なビデオ追跡のためのフレームワークだ。
ビデオマルチオブジェクトセグメンタ(VMOS)とマスクリファインダ(MR)で構成されている。
論文 参考訳(メタデータ) (2023-07-26T06:19:46Z) - AVisT: A Benchmark for Visual Object Tracking in Adverse Visibility [125.77396380698639]
AVisTは、視認性の悪いさまざまなシナリオにおける視覚的トラッキングのためのベンチマークである。
AVisTは、80kの注釈付きフレームを持つ120の挑戦的なシーケンスで構成されており、18の多様なシナリオにまたがっている。
我々は、属性間でのトラッキング性能を詳細に分析し、AVisTで17の人気のトラッカーと最近のトラッカーをベンチマークした。
論文 参考訳(メタデータ) (2022-08-14T17:49:37Z) - Is First Person Vision Challenging for Object Tracking? [32.64792520537041]
ファースト・パーソナリティ・ビジョン(FPV)における物体追跡に関する最初の体系的研究について述べる。
本研究は,近年の視覚トラッカーとベースライン型FPVトラッカーの性能を,異なる側面と新たな性能指標を考慮して広範囲に解析する。
以上の結果から,FPVにおける物体追跡は困難であることが示唆された。
論文 参考訳(メタデータ) (2021-08-31T08:06:01Z) - Detecting Invisible People [58.49425715635312]
我々は,追跡ベンチマークを再利用し,目立たない物体を検出するための新しい指標を提案する。
私たちは、現在の検出および追跡システムがこのタスクで劇的に悪化することを実証します。
第2に,最先端の単眼深度推定ネットワークによる観測結果を用いて,3次元で明示的に推論する動的モデルを構築した。
論文 参考訳(メタデータ) (2020-12-15T16:54:45Z) - Is First Person Vision Challenging for Object Tracking? [33.62651949312872]
第一人物視(FPV)における物体追跡に関する最初の体系的研究の要約を提供する。
本研究は,近年のFPVトラッカーとベースライントラッカーの性能を,異なる側面から広く分析する。
以上の結果から, 追尾作業の便宜を図るため, この問題により多くの研究努力が注がれることが示唆された。
論文 参考訳(メタデータ) (2020-11-24T18:18:15Z) - In the Eye of the Beholder: Gaze and Actions in First Person Video [30.54510882243602]
本研究では,ヘッドウーンカメラで撮影した映像の分析に基づいて,人が何をしているか,どこに見ているのかを共同で決定する課題に対処する。
私たちのデータセットには、ビデオ、視線追跡データ、ハンドマスク、アクションアノテーションが含まれています。
第一人物視における共同視線推定と行動認識のための新しい深層モデルを提案する。
論文 参考訳(メタデータ) (2020-05-31T22:06:06Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。