論文の概要: Depth-only Object Tracking
- arxiv url: http://arxiv.org/abs/2110.11679v1
- Date: Fri, 22 Oct 2021 09:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 15:40:30.198594
- Title: Depth-only Object Tracking
- Title(参考訳): 深度のみの物体追跡
- Authors: Song Yan and Jinyu Yang and Ales Leonardis and Joni-Kristian
Kamarainen
- Abstract要約: 大量の深度データを用いて訓練した場合、Dのみの追跡がどこまで進むかを検討する。
生成されたデータでスクラッチから"Depth-DiMP"をトレーニングし、利用可能な小さなRGBD追跡データセットで微調整します。
深度のみのDiMPは、深度のみのトラッキングにおいて優れた精度を実現し、オリジナルのRGB DiMPと組み合わせて、エンドツーエンドのトレーニングRGBD-DiMPは、最近のVOT 2020 RGBDの勝者よりも優れています。
- 参考スコア(独自算出の注目度): 23.27677106839962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth (D) indicates occlusion and is less sensitive to illumination changes,
which make depth attractive modality for Visual Object Tracking (VOT). Depth is
used in RGBD object tracking where the best trackers are deep RGB trackers with
additional heuristic using depth maps. There are two potential reasons for the
heuristics: 1) the lack of large RGBD tracking datasets to train deep RGBD
trackers and 2) the long-term evaluation protocol of VOT RGBD that benefits
from heuristics such as depth-based occlusion detection. In this work, we study
how far D-only tracking can go if trained with large amounts of depth data. To
compensate the lack of depth data, we generate depth maps for tracking. We
train a "Depth-DiMP" from the scratch with the generated data and fine-tune it
with the available small RGBD tracking datasets. The depth-only DiMP achieves
good accuracy in depth-only tracking and combined with the original RGB DiMP
the end-to-end trained RGBD-DiMP outperforms the recent VOT 2020 RGBD winners.
- Abstract(参考訳): 奥行き (d) は咬合を示し、照明の変化に対する感度が低く、視覚物体追跡 (vot) の奥行きが魅力的である。
深度はRGBDオブジェクトトラッキングで使われており、最高のトラッカーは深度マップを用いたヒューリスティックなRGBトラッカーである。
ヒューリスティックスには2つの潜在的な理由がある。
1)深いrgbdトラッカをトレーニングするための大規模rgbdトラッキングデータセットの欠如
2) VOT RGBD の長期評価プロトコルは,深度に基づく閉塞検出などのヒューリスティックな手法の恩恵を受けている。
本研究は,大量の深度データを用いてトレーニングした場合,Dのみのトラッキングがどこまで達するかを考察する。
深度データの欠如を補うため、追跡のための深度マップを生成する。
生成されたデータでスクラッチから"Depth-DiMP"をトレーニングし、利用可能な小さなRGBD追跡データセットで微調整します。
深度のみのDiMPは、深度のみのトラッキングにおいて優れた精度を実現し、オリジナルのRGB DiMPと組み合わせて、エンドツーエンドのRGBD-DiMPは、最近のVOT 2020 RGBDの勝者よりも優れている。
関連論文リスト
- Learning Dual-Fused Modality-Aware Representations for RGBD Tracking [67.14537242378988]
従来のRGBオブジェクトトラッキングと比較して、奥行きモードの追加は、ターゲットとバックグラウンドの干渉を効果的に解決することができる。
既存のRGBDトラッカーでは2つのモードを別々に使用しており、特に有用な共有情報は無視されている。
DMTracker(Dual-fused Modality-aware Tracker)を提案する。DMTrackerは,RGBDのロバストな追跡のために,対象対象物の情報的および識別的表現を学習することを目的としている。
論文 参考訳(メタデータ) (2022-11-06T07:59:07Z) - RGBD1K: A Large-scale Dataset and Benchmark for RGB-D Object Tracking [30.448658049744775]
注釈付きRGB-D追跡データが限られているため、最先端のRGB-Dトラッカーのほとんどは、高性能なRGB-Dトラッカーの単純な拡張である。
データセット不足問題に対処するため,RGBD1Kという新しいRGB-Dデータセットを報告した。
論文 参考訳(メタデータ) (2022-08-21T03:07:36Z) - RGBD Object Tracking: An In-depth Review [89.96221353160831]
まず、RGBD融合、深度利用、追跡フレームワークなど、さまざまな視点からRGBDオブジェクトトラッカーをレビューする。
我々はRGBDトラッカーの代表セットをベンチマークし、その性能に基づいて詳細な分析を行う。
論文 参考訳(メタデータ) (2022-03-26T18:53:51Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - DepthTrack : Unveiling the Power of RGBD Tracking [29.457114656913944]
この作業では、新しいRGBDトラッキングデータセットであるDepth-Trackが導入されている。
既存の最大データセットの2倍のシーケンス(200)とシーンタイプ(40)を持つ。
シーケンスの平均長(1473)、変形可能なオブジェクト数(16)、追跡属性数(15)が増加する。
論文 参考訳(メタデータ) (2021-08-31T16:42:38Z) - Synergistic saliency and depth prediction for RGB-D saliency detection [76.27406945671379]
既存のRGB-Dサリエンシデータセットは小さく、多様なシナリオに対して過度に適合し、限定的な一般化につながる可能性がある。
そこで本研究では,RGB-Dサリエンシ検出のための半教師付きシステムを提案する。
論文 参考訳(メタデータ) (2020-07-03T14:24:41Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。