論文の概要: Robust Visual Tracking by Segmentation
- arxiv url: http://arxiv.org/abs/2203.11191v1
- Date: Mon, 21 Mar 2022 17:59:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 17:22:42.797682
- Title: Robust Visual Tracking by Segmentation
- Title(参考訳): セグメンテーションによるロバスト視覚追跡
- Authors: Matthieu Paul, Martin Danelljan, Christoph Mayer and Luc Van Gool
- Abstract要約: 対象範囲を推定することは、視覚的物体追跡において根本的な課題となる。
高精度なセグメンテーションマスクを生成するセグメンテーション中心のトラッキングパイプラインを提案する。
我々のトラッカーは、シーンのターゲットを背景コンテンツと明確に区別するターゲット表現をよりよく学習することができる。
- 参考スコア(独自算出の注目度): 103.87369380021441
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating the target extent poses a fundamental challenge in visual object
tracking. Typically, trackers are box-centric and fully rely on a bounding box
to define the target in the scene. In practice, objects often have complex
shapes and are not aligned with the image axis. In these cases, bounding boxes
do not provide an accurate description of the target and often contain a
majority of background pixels. We propose a segmentation-centric tracking
pipeline that not only produces a highly accurate segmentation mask, but also
works internally with segmentation masks instead of bounding boxes. Thus, our
tracker is able to better learn a target representation that clearly
differentiates the target in the scene from background content. In order to
achieve the necessary robustness for the challenging tracking scenario, we
propose a separate instance localization component that is used to condition
the segmentation decoder when producing the output mask. We infer a bounding
box from the segmentation mask and validate our tracker on challenging tracking
datasets and achieve the new state of the art on LaSOT with a success AUC score
of 69.7%. Since fully evaluating the predicted masks on tracking datasets is
not possible due to the missing mask annotations, we further validate our
segmentation quality on two popular video object segmentation datasets.
- Abstract(参考訳): 対象範囲の推定は、視覚オブジェクト追跡において根本的な課題となる。
通常、トラッカーはボックス中心であり、シーンのターゲットを定義するためにバウンディングボックスに完全に依存する。
実際には、オブジェクトはしばしば複雑な形状を持ち、画像軸と整列していない。
この場合、バウンディングボックスはターゲットの正確な記述を提供しておらず、背景ピクセルの大部分を含むことが多い。
本稿では,高精度なセグメンテーションマスクを生成するだけでなく,ボックス境界の代わりにセグメンテーションマスクを内部で動作させるセグメンテーション中心のトラッキングパイプラインを提案する。
これにより,映像中のターゲットを背景コンテンツと明確に区別するターゲット表現をよりよく学習することができる。
課題追跡シナリオに必要なロバスト性を実現するために,出力マスクの生成時にセグメンテーションデコーダを条件付けるために使用するインスタンスローカライズコンポーネントを提案する。
セグメンテーションマスクからバウンディングボックスを推定し、追跡データセットに挑戦するトラッカを検証するとともに、aucスコア69.7%でlasotの新たな最先端技術を達成する。
マスクアノテーションの欠如により,データセットのトラッキングにおける予測マスクの完全評価は不可能であるため,2つの人気ビデオオブジェクトセグメンテーションデータセットのセグメンテーション品質をさらに検証する。
関連論文リスト
- Integrating Boxes and Masks: A Multi-Object Framework for Unified Visual
Tracking and Segmentation [37.85026590250023]
本稿では,多目的マスクボックス統合フレームワークを提案する。
高精度なマルチオブジェクトボックス予測のための新しいピンポイントボックス予測器を提案する。
MITSは、Visual Object Tracking (VOT)とVideo Object Tracking (VOS)ベンチマークの両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-08-25T09:37:51Z) - Box-Adapt: Domain-Adaptive Medical Image Segmentation using Bounding
BoxSupervision [52.45336255472669]
深層学習のための弱教師付きドメイン適応設定を提案する。
Box-Adaptは、ソースドメインのきめ細かいセグナオンマスクとターゲットドメインの弱いバウンディングボックスを完全に探索する。
肝セグメンテーションにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-08-19T01:51:04Z) - Prototypical Cross-Attention Networks for Multiple Object Tracking and
Segmentation [95.74244714914052]
複数のオブジェクトのトラッキングとセグメンテーションには、与えられたクラスのセットに属するオブジェクトを検出し、追跡し、セグメンテーションする必要がある。
オンライン上でリッチ・テンポラル情報を活用するプロトタイプ・クロス・アテンション・ネットワーク(PCAN)を提案する。
PCANは、Youtube-VISとBDD100Kデータセットで、現在のビデオインスタンス追跡とセグメンテーションコンテストの勝者を上回っている。
論文 参考訳(メタデータ) (2021-06-22T17:57:24Z) - BBAM: Bounding Box Attribution Map for Weakly Supervised Semantic and
Instance Segmentation [19.55647093153416]
バウンディングボックスアノテーションを用いた弱い教師付きセグメンテーション手法は、オブジェクトを含む各ボックスからピクセルレベルのマスクを取得することに焦点を当てている。
本研究では,対象検出器が生成する画像の最小領域を画像全体とほぼ同程度に求めることにより,訓練対象検出器の挙動から得られる高次情報を利用する。
これらの領域はバウンディングボックスアトリビューションマップ(bbam)を構成しており、バウンディングボックス内の対象オブジェクトを識別し、弱い教師付きセマンティクスとcocoインスタンスセグメンテーションのための擬似基底となる。
論文 参考訳(メタデータ) (2021-03-16T08:29:33Z) - Generating Masks from Boxes by Mining Spatio-Temporal Consistencies in
Videos [159.02703673838639]
フレーム毎のバウンディングボックスアノテーションからセグメンテーションマスクを生成する手法を動画で紹介します。
得られた正確なマスクを用いて、ビデオオブジェクトセグメンテーション(VOS)ネットワークの弱い教師付きトレーニングを行う。
追加データは、VOSとより困難なトラッキングドメインの両方で最先端の結果をもたらす大幅に優れた一般化パフォーマンスを提供します。
論文 参考訳(メタデータ) (2021-01-06T18:56:24Z) - Learning Spatio-Appearance Memory Network for High-Performance Visual
Tracking [79.80401607146987]
既存のオブジェクトトラッキングは通常、フレーム間の視覚的ターゲットにマッチするバウンディングボックスベースのテンプレートを学習する。
本稿では,局所時間メモリネットワークを備え,正確な時空間対応を学習するセグメンテーションに基づくトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-21T08:12:02Z) - Towards Accurate Pixel-wise Object Tracking by Attention Retrieval [50.06436600343181]
本稿では,バックボーンの特徴に対するソフト空間制約を実現するために,アテンション検索ネットワーク(ARN)を提案する。
私たちは40fpsで動作しながら、最近のピクセルワイドオブジェクトトラッキングベンチマークであるVOT 2020に最先端のベンチマークを新たに設定しました。
論文 参考訳(メタデータ) (2020-08-06T16:25:23Z) - An Exploration of Target-Conditioned Segmentation Methods for Visual
Object Trackers [24.210580784051277]
境界ボックストラッカーをセグメント化トラッカーに変換する方法を示す。
この手法は,最近提案されたセグメンテーショントラッカーと競合することを示す。
論文 参考訳(メタデータ) (2020-08-03T16:21:18Z) - UnOVOST: Unsupervised Offline Video Object Segmentation and Tracking [23.326644949067145]
我々は,UnOVOST(Unsupervised Video Unsupervised Object Tracking)を,多種多様なオブジェクトの追跡とセグメント化が可能な,シンプルで汎用的なアルゴリズムとして提示する。
これを実現するために、新しいトラックレットベースのフォレストパスカットデータアソシエーションアルゴリズムを導入する。
DAVIS 2017でのアプローチを評価する際、教師なしのデータセットは、valで67.9%、test-devで58%、test-challengeベンチマークで56.4%の最先端のパフォーマンスを取得し、DAVIS 2019 Video Object Challengeで1位を獲得した。
論文 参考訳(メタデータ) (2020-01-15T16:49:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。