論文の概要: Explicitly Modeling the Discriminability for Instance-Aware Visual
Object Tracking
- arxiv url: http://arxiv.org/abs/2110.15030v1
- Date: Thu, 28 Oct 2021 11:24:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 15:25:40.296301
- Title: Explicitly Modeling the Discriminability for Instance-Aware Visual
Object Tracking
- Title(参考訳): インスタンス対応ビジュアルオブジェクト追跡における識別可能性の明示的モデル化
- Authors: Mengmeng Wang, Xiaoqian Yang, and Yong Liu
- Abstract要約: 特徴表現の識別性を明らかにするための新しいインスタンス・アウェア・トラッカー (IAT) を提案する。
提案するIATには,ビデオレベルとオブジェクトレベルを含む2つのバリエーションを実装している。
どちらのバージョンも30FPSで動作しながら最先端のメソッドに対して主要な結果を得る。
- 参考スコア(独自算出の注目度): 13.311777431243296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual object tracking performance has been dramatically improved in recent
years, but some severe challenges remain open, like distractors and occlusions.
We suspect the reason is that the feature representations of the tracking
targets are only expressively learned but not fully discriminatively modeled.
In this paper, we propose a novel Instance-Aware Tracker (IAT) to explicitly
excavate the discriminability of feature representations, which improves the
classical visual tracking pipeline with an instance-level classifier. First, we
introduce a contrastive learning mechanism to formulate the classification
task, ensuring that every training sample could be uniquely modeled and be
highly distinguishable from plenty of other samples. Besides, we design an
effective negative sample selection scheme to contain various intra and inter
classes in the instance classification branch. Furthermore, we implement two
variants of the proposed IAT, including a video-level one and an object-level
one. They realize the concept of \textbf{instance} in different granularity as
videos and target bounding boxes, respectively. The former enhances the ability
to recognize the target from the background while the latter boosts the
discriminative power for mitigating the target-distractor dilemma. Extensive
experimental evaluations on 8 benchmark datasets show that both two versions of
the proposed IAT achieve leading results against state-of-the-art methods while
running at 30FPS. Code will be available when it is published.
- Abstract(参考訳): 近年、ビジュアルオブジェクトトラッキングのパフォーマンスは劇的に改善されているが、注意散らしや閉塞など、いくつかの深刻な課題が残っている。
追跡対象の特徴表現は、表現的にのみ学習されるが、完全に識別的にモデル化されていないためと考えられる。
本稿では,特徴表現の識別性を明示的に推定する新しいインスタンス認識トラッカ(iat)を提案する。
まず、分類タスクを定式化するための対照的な学習機構を導入し、各トレーニングサンプルを一意にモデル化し、他の多くのサンプルと高度に区別できるようにする。
さらに、インスタンス分類ブランチに様々なイントラクラスとインタークラスを含む効果的な負のサンプル選択スキームを設計する。
さらに,提案するiatの2つの変種を実装し,ビデオレベルの1つとオブジェクトレベルの1つを実装した。
彼らは、ビデオとターゲット境界ボックスとして、それぞれ異なる粒度で \textbf{instance} の概念を実現する。
前者は背景からターゲットを認識する能力を高め、後者はターゲット・ディストラクタのジレンマを緩和するための識別能力を高める。
8つのベンチマークデータセットに対する大規模な実験的評価は、提案された2つのIATバージョンが、30FPSで実行しながら最先端の手法に対して主要な結果が得られることを示している。
コードは公開時に利用可能になる。
関連論文リスト
- Exploiting Unlabeled Data with Multiple Expert Teachers for Open Vocabulary Aerial Object Detection and Its Orientation Adaptation [58.37525311718006]
OVAD(Open-vocabulary Aero Object Detection)という,航空物体検出問題の新しい定式化を行った。
本稿では,CLIP-activated students-Teacher DetectionフレームワークであるCastDetを提案する。
本フレームワークは,ロバストなローカライズ教師といくつかのボックス選択戦略を統合し,新しいオブジェクトの高品質な提案を生成する。
論文 参考訳(メタデータ) (2024-11-04T12:59:13Z) - Negative Prototypes Guided Contrastive Learning for WSOD [8.102080369924911]
近年,画像レベルのアノテーションのみを持つ弱監視対象検出(WSOD)が注目されている。
本稿では,Native Prototypes Guided Contrastive Learning Architectureを提案する。
提案手法は最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-04T08:16:26Z) - Exploring Robust Features for Few-Shot Object Detection in Satellite
Imagery [17.156864650143678]
従来の2段階アーキテクチャに基づく数発の物体検出器を開発した。
大規模な事前訓練モデルを使用して、クラス参照の埋め込みやプロトタイプを構築する。
課題と稀なオブジェクトを含む2つのリモートセンシングデータセットの評価を行う。
論文 参考訳(メタデータ) (2024-03-08T15:20:27Z) - OVTrack: Open-Vocabulary Multiple Object Tracking [64.73379741435255]
OVTrackは任意のオブジェクトクラスを追跡することができるオープン語彙トラッカーである。
大規模な大語彙のTAOベンチマークに新たな最先端技術が設定されている。
論文 参考訳(メタデータ) (2023-04-17T16:20:05Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - Instance-Level Relative Saliency Ranking with Graph Reasoning [126.09138829920627]
そこで本研究では,有意な事例を分割し,相対的有意な有意なランク順序を推定するための統一モデルを提案する。
また、サラレンシーランキングブランチを効果的にトレーニングするために、新しい損失関数も提案されている。
実験の結果,提案手法は従来の手法よりも有効であることがわかった。
論文 参考訳(メタデータ) (2021-07-08T13:10:42Z) - Train a One-Million-Way Instance Classifier for Unsupervised Visual
Representation Learning [45.510042484456854]
本稿では、パラメトリックなインスタンスレベルの計算を用いて、データセット内のすべての画像を識別するプリテキストタスクを備えた、単純な教師なし視覚表現学習法を提案する。
全体的なフレームワークは教師付き分類モデルのレプリカであり、セマンティッククラス(犬、鳥、船など)はインスタンスIDに置き換えられる。
数千のセマンティックラベルから数百万のインスタンスラベルへの分類タスクのスケールアップは、1)大規模ソフトマックス分類器、2)インスタンスサンプルの頻度の低い訪問による緩やかな収束、3)ノイズの多い大量の負のクラスなど、特定の課題をもたらす。
論文 参考訳(メタデータ) (2021-02-09T14:44:18Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - CSI: Novelty Detection via Contrastive Learning on Distributionally
Shifted Instances [77.28192419848901]
コントラストシフトインスタンス (CSI) という,単純かつ効果的な手法を提案する。
従来のコントラスト学習法のように,サンプルを他の例と対比することに加えて,本トレーニング手法では,サンプルを分散シフトによる拡張と対比する。
本実験は, 種々の新規検出シナリオにおける本手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-07-16T08:32:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。