論文の概要: Is First Person Vision Challenging for Object Tracking?
- arxiv url: http://arxiv.org/abs/2011.12263v2
- Date: Fri, 24 Sep 2021 15:14:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:37:38.077960
- Title: Is First Person Vision Challenging for Object Tracking?
- Title(参考訳): 初対人視力は物体追跡にかかわるか?
- Authors: Matteo Dunnhofer, Antonino Furnari, Giovanni Maria Farinella,
Christian Micheloni
- Abstract要約: 第一人物視(FPV)における物体追跡に関する最初の体系的研究の要約を提供する。
本研究は,近年のFPVトラッカーとベースライントラッカーの性能を,異なる側面から広く分析する。
以上の結果から, 追尾作業の便宜を図るため, この問題により多くの研究努力が注がれることが示唆された。
- 参考スコア(独自算出の注目度): 33.62651949312872
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding human-object interactions is fundamental in First Person Vision
(FPV). Tracking algorithms which follow the objects manipulated by the camera
wearer can provide useful cues to effectively model such interactions. Despite
a few previous attempts to exploit trackers in FPV applications, a methodical
analysis of the performance of state-of-the-art visual trackers in this domain
is still missing. In this short paper, we provide a recap of the first
systematic study of object tracking in FPV. Our work extensively analyses the
performance of recent and baseline FPV trackers with respect to different
aspects. This is achieved through TREK-150, a novel benchmark dataset composed
of 150 densely annotated video sequences. The results suggest that more
research efforts should be devoted to this problem so that tracking could
benefit FPV tasks. The full version of this paper is available at
arXiv:2108.13665.
- Abstract(参考訳): 人間と物体の相互作用を理解することは、第一人物ビジョン(FPV)の基本である。
カメラ装着者が操作する物体を追跡する追跡アルゴリズムは、そのような相互作用を効果的にモデル化するための有用な手がかりを提供することができる。
FPVアプリケーションでトラッカーを活用しようとする以前の試みにもかかわらず、この領域における最先端のビジュアルトラッカーの性能の方法論的分析はいまだに欠落している。
本稿では,FPVにおける物体追跡に関する最初の体系的な研究を要約する。
本研究は,近年のFPVトラッカーとベースライントラッカーの性能を,異なる側面から広く分析する。
これは150の密注釈付きビデオシーケンスからなる新しいベンチマークデータセットであるtrek-150によって実現されている。
結果は、追跡がfpvタスクに利益をもたらすよう、この問題により多くの研究努力を捧げるべきであることを示唆している。
本論文のフルバージョンはarxiv:2108.13665で利用可能である。
関連論文リスト
- SFTrack: A Robust Scale and Motion Adaptive Algorithm for Tracking Small and Fast Moving Objects [2.9803250365852443]
本稿では,無人航空機(UAV)映像における多物体追跡の問題に対処する。
交通監視システムや警察によるリアルタイム容疑者追跡など、様々なUAVアプリケーションにおいて重要な役割を果たしている。
低信頼度検出から対象物体の追跡を開始する新しい追跡戦略を提案する。
論文 参考訳(メタデータ) (2024-10-26T05:09:20Z) - Tracking with Human-Intent Reasoning [64.69229729784008]
この作業では、新しいトラッキングタスクであるインストラクショントラッキングを提案している。
ビデオフレーム内で自動的にトラッキングを実行するようにトラッカーに要求する暗黙の追跡命令を提供する。
TrackGPTは複雑な推論ベースの追跡を行うことができる。
論文 参考訳(メタデータ) (2023-12-29T03:22:18Z) - BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in Bird's-Eye View [56.77287041917277]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションに不可欠なことを証明している。
本稿では,単純で効果的なベースライン手法であるBEVTrackを提案する。
Bird's-Eye View (BEV) における目標運動を推定して追跡を行うことにより、BEVTrackは、ネットワーク設計、トレーニング目標、トラッキングパイプラインなど、様々な側面から驚くほどの単純さを示しながら、優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z) - Tracking Anything in High Quality [63.63653185865726]
HQTrackは高品質なビデオ追跡のためのフレームワークだ。
ビデオマルチオブジェクトセグメンタ(VMOS)とマスクリファインダ(MR)で構成されている。
論文 参考訳(メタデータ) (2023-07-26T06:19:46Z) - Visual Object Tracking in First Person Vision [33.62651949312872]
この研究は、150の濃密な注釈付きビデオシーケンスからなる新しいベンチマークデータセットであるTREK-150の導入によって実現された。
その結果、FPVにおける物体追跡は、現在の視覚トラッカーに新たな課題をもたらすことが示された。
論文 参考訳(メタデータ) (2022-09-27T16:18:47Z) - AVisT: A Benchmark for Visual Object Tracking in Adverse Visibility [125.77396380698639]
AVisTは、視認性の悪いさまざまなシナリオにおける視覚的トラッキングのためのベンチマークである。
AVisTは、80kの注釈付きフレームを持つ120の挑戦的なシーケンスで構成されており、18の多様なシナリオにまたがっている。
我々は、属性間でのトラッキング性能を詳細に分析し、AVisTで17の人気のトラッカーと最近のトラッカーをベンチマークした。
論文 参考訳(メタデータ) (2022-08-14T17:49:37Z) - Is First Person Vision Challenging for Object Tracking? [32.64792520537041]
ファースト・パーソナリティ・ビジョン(FPV)における物体追跡に関する最初の体系的研究について述べる。
本研究は,近年の視覚トラッカーとベースライン型FPVトラッカーの性能を,異なる側面と新たな性能指標を考慮して広範囲に解析する。
以上の結果から,FPVにおける物体追跡は困難であることが示唆された。
論文 参考訳(メタデータ) (2021-08-31T08:06:01Z) - Detecting Invisible People [58.49425715635312]
我々は,追跡ベンチマークを再利用し,目立たない物体を検出するための新しい指標を提案する。
私たちは、現在の検出および追跡システムがこのタスクで劇的に悪化することを実証します。
第2に,最先端の単眼深度推定ネットワークによる観測結果を用いて,3次元で明示的に推論する動的モデルを構築した。
論文 参考訳(メタデータ) (2020-12-15T16:54:45Z) - In the Eye of the Beholder: Gaze and Actions in First Person Video [30.54510882243602]
本研究では,ヘッドウーンカメラで撮影した映像の分析に基づいて,人が何をしているか,どこに見ているのかを共同で決定する課題に対処する。
私たちのデータセットには、ビデオ、視線追跡データ、ハンドマスク、アクションアノテーションが含まれています。
第一人物視における共同視線推定と行動認識のための新しい深層モデルを提案する。
論文 参考訳(メタデータ) (2020-05-31T22:06:06Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。