論文の概要: 1st Place Solution to ECCV-TAO-2020: Detect and Represent Any Object for
Tracking
- arxiv url: http://arxiv.org/abs/2101.08040v2
- Date: Mon, 1 Feb 2021 08:38:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 01:23:44.207483
- Title: 1st Place Solution to ECCV-TAO-2020: Detect and Represent Any Object for
Tracking
- Title(参考訳): ECCV-TAO-2020の第1位: トラッキング対象の検出と表現
- Authors: Fei Du, Bo Xu, Jiasheng Tang, Yuqi Zhang, Fan Wang, and Hao Li
- Abstract要約: 従来のトラッキング・バイ・検出パラダイムを、このトラッキング・バイ・オブジェクトタスクに拡張します。
特徴学習ネットワークを訓練することで,あらゆる対象を表す出現特徴を学習する。
類似の外観機能とトラックレットレベルのポストアソシエーションモジュールを備えたシンプルなリンク戦略が最終的に最終追跡結果を生成するために適用されます。
- 参考スコア(独自算出の注目度): 19.15537335764895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We extend the classical tracking-by-detection paradigm to this
tracking-any-object task. Solid detection results are first extracted from TAO
dataset. Some state-of-the-art techniques like \textbf{BA}lanced-\textbf{G}roup
\textbf{S}oftmax (\textbf{BAGS}\cite{li2020overcoming}) and
DetectoRS\cite{qiao2020detectors} are integrated during detection. Then we
learned appearance features to represent any object by training feature
learning networks. We ensemble several models for improving detection and
feature representation. Simple linking strategies with most similar appearance
features and tracklet-level post association module are finally applied to
generate final tracking results. Our method is submitted as \textbf{AOA} on the
challenge website. Code is available at
https://github.com/feiaxyt/Winner_ECCV20_TAO.
- Abstract(参考訳): 従来のトラッキング・バイ・検出パラダイムをこのトラッキング・ア・オブジェクト・タスクに拡張する。
固体検出結果はまずTAOデータセットから抽出される。
いくつかの最先端技術、例えば \textbf{ba}lanced-\textbf{g}roup \textbf{s}oftmax (\textbf{bags}\cite{li2020overcoming})や検出器s\cite{qiao2020detector}は検出中に統合される。
そして,特徴学習ネットワークのトレーニングにより,あらゆる対象を表す出現特徴を学習した。
検出と特徴表現を改善するために,いくつかのモデルを組み立てる。
最も類似した外観機能を持つ単純なリンク戦略と、トラックレットレベルのポストアソシエーションモジュールが最終的に最終追跡結果を生成するために適用される。
この方法は、challenge webサイトに \textbf{aoa}として提出される。
コードはhttps://github.com/feiaxyt/winner_eccv20_taoで入手できる。
関連論文リスト
- UnsMOT: Unified Framework for Unsupervised Multi-Object Tracking with
Geometric Topology Guidance [6.577227592760559]
UnsMOTは、オブジェクトの外観と運動の特徴と幾何学的情報を組み合わせて、より正確なトラッキングを提供する新しいフレームワークである。
実験結果から, HOTA, IDF1, MOTAの計測値において, 最先端手法と比較して顕著な性能を示した。
論文 参考訳(メタデータ) (2023-09-03T04:58:12Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - SalienDet: A Saliency-based Feature Enhancement Algorithm for Object
Detection for Autonomous Driving [160.57870373052577]
未知の物体を検出するために,サリエンデット法(SalienDet)を提案する。
我々のSaienDetは、オブジェクトの提案生成のための画像機能を強化するために、サリエンシに基づくアルゴリズムを利用している。
オープンワールド検出を実現するためのトレーニングサンプルセットにおいて、未知のオブジェクトをすべてのオブジェクトと区別するためのデータセットレザベリングアプローチを設計する。
論文 参考訳(メタデータ) (2023-05-11T16:19:44Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Global Correlation Network: End-to-End Joint Multi-Object Detection and
Tracking [2.749204052800622]
本稿では,global correlation network (gcnet) という,エンドツーエンドでマルチオブジェクト検出と追跡を行うネットワークを提案する。
gcnetはオフセット予測の代わりに絶対サイズと境界ボックスの座標の回帰のためにグローバル相関層を導入する。
GCNetによる検出と追跡のパイプラインは概念的にはシンプルで、非最大抑制、データアソシエーション、その他の複雑な追跡戦略を必要としない。
論文 参考訳(メタデータ) (2021-03-23T13:16:42Z) - Structure-Consistent Weakly Supervised Salient Object Detection with
Local Saliency Coherence [14.79639149658596]
本論文では,スクリブルアノテーションによる弱監督オブジェクト検出のための1ラウンドのエンドツーエンドトレーニング手法を提案する。
6つのベンチマークで最新のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2020-12-08T12:49:40Z) - Many-shot from Low-shot: Learning to Annotate using Mixed Supervision
for Object Detection [27.354492072251492]
オンラインアノテーションモジュール(OAM)は、弱いラベル付き画像の大きなボリュームから、多数の強調可能なアノテーションセットを生成することを学ぶ。
我々のOAMは、完全に教師された2段階のオブジェクト検出手法で共同で訓練することができ、オンザフライで追加のトレーニングアノテーションを提供する。
OAMとFast(er) R-CNNの統合により、PASCAL VOC 2007とMS-COCOベンチマークで17%$mAP、9%$AP50のパフォーマンスが向上し、混合監視による競合メソッドよりも大幅に向上した。
論文 参考訳(メタデータ) (2020-08-21T22:06:43Z) - Chained-Tracker: Chaining Paired Attentive Regression Results for
End-to-End Joint Multiple-Object Detection and Tracking [102.31092931373232]
そこで我々は,3つのサブタスク全てをエンド・ツー・エンドのソリューションに統合する簡単なオンラインモデルである Chained-Tracker (CTracker) を提案する。
鎖状構造と対の注意的回帰という2つの大きな特徴は、CTrackerをシンプルに、速く、効果的にする。
論文 参考訳(メタデータ) (2020-07-29T02:38:49Z) - Attention-based Joint Detection of Object and Semantic Part [4.389917490809522]
我々のモデルは2つのFaster-RCNNモデルに基づいて作成され、それらの特徴を共有して両方の表現を拡張します。
PASCAL-Part 2010データセットの実験では、関節検出は物体検出と部分検出の両方を同時に改善できることが示された。
論文 参考訳(メタデータ) (2020-07-05T18:54:10Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。