論文の概要: DepthTrack : Unveiling the Power of RGBD Tracking
- arxiv url: http://arxiv.org/abs/2108.13962v1
- Date: Tue, 31 Aug 2021 16:42:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-01 16:02:03.514255
- Title: DepthTrack : Unveiling the Power of RGBD Tracking
- Title(参考訳): DepthTrack : RGBDトラッカーのパワーを解放する
- Authors: Song Yan, Jinyu Yang, Jani K\"apyl\"a, Feng Zheng, Ale\v{s} Leonardis,
Joni-Kristian K\"am\"ar\"ainen
- Abstract要約: この作業では、新しいRGBDトラッキングデータセットであるDepth-Trackが導入されている。
既存の最大データセットの2倍のシーケンス(200)とシーンタイプ(40)を持つ。
シーケンスの平均長(1473)、変形可能なオブジェクト数(16)、追跡属性数(15)が増加する。
- 参考スコア(独自算出の注目度): 29.457114656913944
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: RGBD (RGB plus depth) object tracking is gaining momentum as RGBD sensors
have become popular in many application fields such as robotics.However, the
best RGBD trackers are extensions of the state-of-the-art deep RGB trackers.
They are trained with RGB data and the depth channel is used as a sidekick for
subtleties such as occlusion detection. This can be explained by the fact that
there are no sufficiently large RGBD datasets to 1) train deep depth trackers
and to 2) challenge RGB trackers with sequences for which the depth cue is
essential. This work introduces a new RGBD tracking dataset - Depth-Track -
that has twice as many sequences (200) and scene types (40) than in the largest
existing dataset, and three times more objects (90). In addition, the average
length of the sequences (1473), the number of deformable objects (16) and the
number of annotated tracking attributes (15) have been increased. Furthermore,
by running the SotA RGB and RGBD trackers on DepthTrack, we propose a new RGBD
tracking baseline, namely DeT, which reveals that deep RGBD tracking indeed
benefits from genuine training data. The code and dataset is available at
https://github.com/xiaozai/DeT
- Abstract(参考訳): RGBD(RGB+深度)オブジェクトトラッキングは、ロボットなど多くのアプリケーション分野でRGBDセンサが普及するにつれ、勢いを増しているが、RGBDトラッカーは最先端の深度RGBトラッカーの拡張である。
それらはRGBデータでトレーニングされ、ディープチャネルは閉塞検出などの微妙な部分のサイドキックとして使用される。
このことは,1)深度トラッカーの訓練に十分なRGBDデータセットが存在しないこと,2)深度キューが不可欠であるシーケンスでRGBトラッカーに挑戦することが説明できる。
これは、既存のデータセットの2倍のシーケンス(200)とシーンタイプ(40)、そして3倍のオブジェクト(90)を持つ深さ追跡である。
さらに、シーケンスの平均長(1473)、変形可能なオブジェクト数(16)、アノテーション付きトラッキング属性数(15)も増加している。
さらに,sata rgb と rgbd トラッカーを depthtrack 上で実行することにより,新しい rgbd トラッキングベースラインである det を提案する。
コードとデータセットはhttps://github.com/xiaozai/detで入手できる。
関連論文リスト
- DFormer: Rethinking RGBD Representation Learning for Semantic
Segmentation [76.81628995237058]
DFormerは、RGB-Dセグメンテーションタスクの転送可能な表現を学ぶための新しいフレームワークである。
ImageNet-1Kから画像深度ペアを使用してバックボーンを事前トレーニングする。
DFormerは2つのRGB-Dタスクで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-09-18T11:09:11Z) - ARKitTrack: A New Diverse Dataset for Tracking Using Mobile RGB-D Data [75.73063721067608]
我々は,AppleのiPhoneおよびiPadに搭載されたコンシューマグレードのLiDARスキャナーによってキャプチャされた静的および動的シーンの両方を対象とした新しいRGB-D追跡データセットを提案する。
ARKitTrackには300のRGB-Dシーケンス、455のターゲット、229.7Kのビデオフレームが含まれている。
詳細な実験分析により,ARKitTrackデータセットがRGB-D追跡を著しく促進し,提案手法が芸術的状況と良好に比較できることが確認された。
論文 参考訳(メタデータ) (2023-03-24T09:51:13Z) - Learning Dual-Fused Modality-Aware Representations for RGBD Tracking [67.14537242378988]
従来のRGBオブジェクトトラッキングと比較して、奥行きモードの追加は、ターゲットとバックグラウンドの干渉を効果的に解決することができる。
既存のRGBDトラッカーでは2つのモードを別々に使用しており、特に有用な共有情報は無視されている。
DMTracker(Dual-fused Modality-aware Tracker)を提案する。DMTrackerは,RGBDのロバストな追跡のために,対象対象物の情報的および識別的表現を学習することを目的としている。
論文 参考訳(メタデータ) (2022-11-06T07:59:07Z) - RGBD1K: A Large-scale Dataset and Benchmark for RGB-D Object Tracking [30.448658049744775]
注釈付きRGB-D追跡データが限られているため、最先端のRGB-Dトラッカーのほとんどは、高性能なRGB-Dトラッカーの単純な拡張である。
データセット不足問題に対処するため,RGBD1Kという新しいRGB-Dデータセットを報告した。
論文 参考訳(メタデータ) (2022-08-21T03:07:36Z) - RGBD Object Tracking: An In-depth Review [89.96221353160831]
まず、RGBD融合、深度利用、追跡フレームワークなど、さまざまな視点からRGBDオブジェクトトラッカーをレビューする。
我々はRGBDトラッカーの代表セットをベンチマークし、その性能に基づいて詳細な分析を行う。
論文 参考訳(メタデータ) (2022-03-26T18:53:51Z) - Visual Object Tracking on Multi-modal RGB-D Videos: A Review [16.098468526632473]
本研究の目的は,RGB-D追跡研究の相対的知識を要約することである。
具体的には、関連するRGB-D追跡ベンチマークデータセットと、対応するパフォーマンス測定を一般化する。
論文 参考訳(メタデータ) (2022-01-23T08:02:49Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Depth-only Object Tracking [23.27677106839962]
大量の深度データを用いて訓練した場合、Dのみの追跡がどこまで進むかを検討する。
生成されたデータでスクラッチから"Depth-DiMP"をトレーニングし、利用可能な小さなRGBD追跡データセットで微調整します。
深度のみのDiMPは、深度のみのトラッキングにおいて優れた精度を実現し、オリジナルのRGB DiMPと組み合わせて、エンドツーエンドのトレーニングRGBD-DiMPは、最近のVOT 2020 RGBDの勝者よりも優れています。
論文 参考訳(メタデータ) (2021-10-22T09:59:31Z) - Synergistic saliency and depth prediction for RGB-D saliency detection [76.27406945671379]
既存のRGB-Dサリエンシデータセットは小さく、多様なシナリオに対して過度に適合し、限定的な一般化につながる可能性がある。
そこで本研究では,RGB-Dサリエンシ検出のための半教師付きシステムを提案する。
論文 参考訳(メタデータ) (2020-07-03T14:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。