論文の概要: RGBD Object Tracking: An In-depth Review
- arxiv url: http://arxiv.org/abs/2203.14134v1
- Date: Sat, 26 Mar 2022 18:53:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 14:36:31.927718
- Title: RGBD Object Tracking: An In-depth Review
- Title(参考訳): RGBDオブジェクト追跡:詳細レビュー
- Authors: Jinyu Yang and Zhe Li and Song Yan and Feng Zheng and Ale\v{s}
Leonardis and Joni-Kristian K\"am\"ar\"ainen and Ling Shao
- Abstract要約: まず、RGBD融合、深度利用、追跡フレームワークなど、さまざまな視点からRGBDオブジェクトトラッカーをレビューする。
我々はRGBDトラッカーの代表セットをベンチマークし、その性能に基づいて詳細な分析を行う。
- 参考スコア(独自算出の注目度): 89.96221353160831
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: RGBD object tracking is gaining momentum in computer vision research thanks
to the development of depth sensors. Although numerous RGBD trackers have been
proposed with promising performance, an in-depth review for comprehensive
understanding of this area is lacking. In this paper, we firstly review RGBD
object trackers from different perspectives, including RGBD fusion, depth
usage, and tracking framework. Then, we summarize the existing datasets and the
evaluation metrics. We benchmark a representative set of RGBD trackers, and
give detailed analyses based on their performances. Particularly, we are the
first to provide depth quality evaluation and analysis of tracking results in
depth-friendly scenarios in RGBD tracking. For long-term settings in most RGBD
tracking videos, we give an analysis of trackers' performance on handling
target disappearance. To enable better understanding of RGBD trackers, we
propose robustness evaluation against input perturbations. Finally, we
summarize the challenges and provide open directions for this community. All
resources are publicly available at
https://github.com/memoryunreal/RGBD-tracking-review.
- Abstract(参考訳): rgbdオブジェクトトラッキングは、深度センサーの開発により、コンピュータビジョン研究で勢いを増している。
多くのrgbdトラッカーが有望な性能で提案されているが、この領域の包括的理解に関する詳細なレビューは欠落している。
本稿では,まずrgbd融合,奥行き利用,トラッキングフレームワークなど,さまざまな視点からrgbdオブジェクトトラッカをレビューする。
次に,既存のデータセットと評価指標を要約する。
我々はRGBDトラッカーの代表セットをベンチマークし、その性能に基づいて詳細な分析を行う。
特に,rgbd追跡における深度フレンドリなシナリオにおいて,深度品質評価と追跡結果の分析を初めて行った。
ほとんどのrgbd追跡ビデオの長期設定では、追跡者のターゲット消去処理におけるパフォーマンスの分析を行う。
RGBDトラッカーの理解を深めるため,入力摂動に対するロバスト性評価を提案する。
最後に,課題をまとめ,コミュニティに対してオープンな方向性を提供します。
すべてのリソースはhttps://github.com/ memoryunreal/RGBD-tracking-reviewで公開されている。
関連論文リスト
- Depth Attention for Robust RGB Tracking [21.897255266278275]
本稿では,RGBビデオシーケンスにおける動きのぼかしの影響や視界外なターゲット追跡の課題に対処するために,単眼深度推定を利用した新しいフレームワークを提案する。
我々の知識を最大限に活用するために、我々は最初に深度注意機構を提案し、深度情報と美術追跡アルゴリズムの状態をシームレスに統合するシンプルなフレームワークを定式化した。
論文 参考訳(メタデータ) (2024-10-27T09:47:47Z) - ARKitTrack: A New Diverse Dataset for Tracking Using Mobile RGB-D Data [75.73063721067608]
我々は,AppleのiPhoneおよびiPadに搭載されたコンシューマグレードのLiDARスキャナーによってキャプチャされた静的および動的シーンの両方を対象とした新しいRGB-D追跡データセットを提案する。
ARKitTrackには300のRGB-Dシーケンス、455のターゲット、229.7Kのビデオフレームが含まれている。
詳細な実験分析により,ARKitTrackデータセットがRGB-D追跡を著しく促進し,提案手法が芸術的状況と良好に比較できることが確認された。
論文 参考訳(メタデータ) (2023-03-24T09:51:13Z) - Learning Dual-Fused Modality-Aware Representations for RGBD Tracking [67.14537242378988]
従来のRGBオブジェクトトラッキングと比較して、奥行きモードの追加は、ターゲットとバックグラウンドの干渉を効果的に解決することができる。
既存のRGBDトラッカーでは2つのモードを別々に使用しており、特に有用な共有情報は無視されている。
DMTracker(Dual-fused Modality-aware Tracker)を提案する。DMTrackerは,RGBDのロバストな追跡のために,対象対象物の情報的および識別的表現を学習することを目的としている。
論文 参考訳(メタデータ) (2022-11-06T07:59:07Z) - RGBD1K: A Large-scale Dataset and Benchmark for RGB-D Object Tracking [30.448658049744775]
注釈付きRGB-D追跡データが限られているため、最先端のRGB-Dトラッカーのほとんどは、高性能なRGB-Dトラッカーの単純な拡張である。
データセット不足問題に対処するため,RGBD1Kという新しいRGB-Dデータセットを報告した。
論文 参考訳(メタデータ) (2022-08-21T03:07:36Z) - Visual Object Tracking on Multi-modal RGB-D Videos: A Review [16.098468526632473]
本研究の目的は,RGB-D追跡研究の相対的知識を要約することである。
具体的には、関連するRGB-D追跡ベンチマークデータセットと、対応するパフォーマンス測定を一般化する。
論文 参考訳(メタデータ) (2022-01-23T08:02:49Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Depth-only Object Tracking [23.27677106839962]
大量の深度データを用いて訓練した場合、Dのみの追跡がどこまで進むかを検討する。
生成されたデータでスクラッチから"Depth-DiMP"をトレーニングし、利用可能な小さなRGBD追跡データセットで微調整します。
深度のみのDiMPは、深度のみのトラッキングにおいて優れた精度を実現し、オリジナルのRGB DiMPと組み合わせて、エンドツーエンドのトレーニングRGBD-DiMPは、最近のVOT 2020 RGBDの勝者よりも優れています。
論文 参考訳(メタデータ) (2021-10-22T09:59:31Z) - DepthTrack : Unveiling the Power of RGBD Tracking [29.457114656913944]
この作業では、新しいRGBDトラッキングデータセットであるDepth-Trackが導入されている。
既存の最大データセットの2倍のシーケンス(200)とシーンタイプ(40)を持つ。
シーケンスの平均長(1473)、変形可能なオブジェクト数(16)、追跡属性数(15)が増加する。
論文 参考訳(メタデータ) (2021-08-31T16:42:38Z) - RGB-D Salient Object Detection: A Survey [195.83586883670358]
様々な観点からRGB-Dに基づくSODモデルを総合的に調査する。
また、このドメインからSODモデルと人気のあるベンチマークデータセットもレビューします。
今後の研究に向けたRGB-DベースのSODの課題と方向性について論じる。
論文 参考訳(メタデータ) (2020-08-01T10:01:32Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。