論文の概要: ReMOTS: Self-Supervised Refining Multi-Object Tracking and Segmentation
- arxiv url: http://arxiv.org/abs/2007.03200v3
- Date: Wed, 13 Jan 2021 12:38:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 19:50:25.177336
- Title: ReMOTS: Self-Supervised Refining Multi-Object Tracking and Segmentation
- Title(参考訳): ReMOTS: 自己監督型マルチオブジェクト追跡とセグメンテーション
- Authors: Fan Yang, Xin Chang, Chenyu Dang, Ziqiang Zheng, Sakriani Sakti,
Satoshi Nakamura, Yang Wu
- Abstract要約: 自己監督型リフィニングMOTS(ReMOTS)フレームワークを提案する。
ReMOTSを使用してCVPR 2020 MOTS Challenge 1で1位となり、sMOTSAスコアは69.9ドルとなった。
- 参考スコア(独自算出の注目度): 27.261245523563634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We aim to improve the performance of Multiple Object Tracking and
Segmentation (MOTS) by refinement. However, it remains challenging for refining
MOTS results, which could be attributed to that appearance features are not
adapted to target videos and it is also difficult to find proper thresholds to
discriminate them. To tackle this issue, we propose a self-supervised refining
MOTS (i.e., ReMOTS) framework. ReMOTS mainly takes four steps to refine MOTS
results from the data association perspective. (1) Training the appearance
encoder using predicted masks. (2) Associating observations across adjacent
frames to form short-term tracklets. (3) Training the appearance encoder using
short-term tracklets as reliable pseudo labels. (4) Merging short-term
tracklets to long-term tracklets utilizing adopted appearance features and
thresholds that are automatically obtained from statistical information. Using
ReMOTS, we reached the $1^{st}$ place on CVPR 2020 MOTS Challenge 1, with an
sMOTSA score of $69.9$.
- Abstract(参考訳): 我々は,複数のオブジェクト追跡およびセグメント化(mots)の性能向上を目的とした。
しかし、MOTS結果の精細化は依然として困難であり、外観的特徴がターゲットビデオに適応していないことや、それらを識別する適切なしきい値を見つけることも困難である。
この問題に対処するために,自己監督型リフィニングMOTS(ReMOTS)フレームワークを提案する。
ReMOTSは主にデータアソシエーションの観点からMOTS結果を洗練するために4つのステップを踏む。
1)予測マスクを用いた外観エンコーダの訓練
2)隣接したフレーム間の観測を関連付けて短期トラックレットを形成する。
(3) 短期トラッカーを疑似ラベルとして用いた外観エンコーダの訓練
(4)統計情報から自動的に得られる出現特徴と閾値を利用した短期トラックレットと長期トラックレットの融合
ReMOTSを使用して、CVPR 2020 MOTS Challenge 1で1^{st}$に到達し、sMOTSAスコアは69.9ドルだった。
関連論文リスト
- Single-Shot and Multi-Shot Feature Learning for Multi-Object Tracking [55.13878429987136]
そこで本研究では,異なる目標に対して,単発と複数発の特徴を共同で学習するための,シンプルで効果的な2段階特徴学習パラダイムを提案する。
提案手法は,DanceTrackデータセットの最先端性能を達成しつつ,MOT17およびMOT20データセットの大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-11-17T08:17:49Z) - Bridging the Gap Between End-to-end and Non-End-to-end Multi-Object
Tracking [27.74953961900086]
既存のエンドツーエンドのマルチオブジェクト追跡(e2e-MOT)手法は、非エンドツーエンドのトラッキング・バイ・検出手法を超えていない。
本稿では,e2e-MOT をシャドウ概念を用いた新しいラベル割り当てにより,簡便かつ効果的な方法である Co-MOT を提案する。
論文 参考訳(メタデータ) (2023-05-22T05:18:34Z) - End-to-end Tracking with a Multi-query Transformer [96.13468602635082]
マルチオブジェクトトラッキング(MOT)は、時間とともにシーン内のオブジェクトの位置、外観、アイデンティティを同時に推論する必要がある課題である。
本研究の目的は、トラッキング・バイ・ディテクト・アプローチを超えて、未知のオブジェクト・クラスに対してもよく機能するクラスに依存しないトラッキングへと移行することである。
論文 参考訳(メタデータ) (2022-10-26T10:19:37Z) - Cannot See the Forest for the Trees: Aggregating Multiple Viewpoints to
Better Classify Objects in Videos [36.28269135795851]
本稿では,トラックレットに含まれる複数の視点から情報を集約することで,トラックレットの分類精度を向上させる集合分類器を提案する。
ResNet-101上のQDTrackにメソッドをアタッチするだけで、TAOの検証とテストセットで19.9%と15.7%のTrackAP_50という新しい最先端を実現できます。
論文 参考訳(メタデータ) (2022-06-05T07:51:58Z) - Learning Dynamic Compact Memory Embedding for Deformable Visual Object
Tracking [82.34356879078955]
本稿では,セグメント化に基づく変形可能な視覚追跡手法の識別を強化するために,コンパクトなメモリ埋め込みを提案する。
DAVIS 2017ベンチマークでは,D3SやSiamMaskなどのセグメンテーションベースのトラッカーよりも優れている。
論文 参考訳(メタデータ) (2021-11-23T03:07:12Z) - RPT++: Customized Feature Representation for Siamese Visual Tracking [16.305972000224358]
視覚的トラッキングの性能向上は,有意な領域から抽出された特徴が,より認識可能な視覚的パターンを提供するため,限られていると我々は主張する。
タスク固有の視覚パターンを捉えるために,極性プーリングと極性プーリングという2つの特徴抽出器を提案する。
本稿では,タスク固有の特徴表現の有効性を,最近の進行トラッカーRTPに組み込むことで示す。
論文 参考訳(メタデータ) (2021-10-23T10:58:57Z) - DEFT: Detection Embeddings for Tracking [3.326320568999945]
我々は,DEFT と呼ばれる効率的な関節検出・追跡モデルを提案する。
提案手法は,外見に基づくオブジェクトマッチングネットワークと,下層のオブジェクト検出ネットワークとの協調学習に依存している。
DEFTは2Dオンライントラッキングリーダーボードのトップメソッドに匹敵する精度とスピードを持っている。
論文 参考訳(メタデータ) (2021-02-03T20:00:44Z) - Probabilistic Tracklet Scoring and Inpainting for Multiple Object
Tracking [83.75789829291475]
本稿では,トラックレット提案の確率的自己回帰運動モデルを提案する。
これは、我々のモデルを訓練して、自然のトラックレットの基盤となる分布を学習することで達成される。
我々の実験は、挑戦的なシーケンスにおける物体の追跡におけるアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2020-12-03T23:59:27Z) - Dense Scene Multiple Object Tracking with Box-Plane Matching [73.54369833671772]
マルチオブジェクトトラッキング(MOT)はコンピュータビジョンにおいて重要なタスクである。
密集したシーンにおけるMOT性能を改善するために,Box-Plane Matching (BPM)法を提案する。
3つのモジュールの有効性により、ACM MM Grand Challenge HiEve 2020において、私たちのチームはトラック1のリーダーボードで1位を獲得しました。
論文 参考訳(メタデータ) (2020-07-30T16:39:22Z) - ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking [80.02322563402758]
オンラインマルチオブジェクトトラッキング(MOT)フレームワークの中核的なコンポーネントの1つは、既存のトラックレットと新しい検出を関連付けることである。
そこで我々は,トラックレットが自然運動を表す可能性を直接測定することにより,トラックレットの提案を評価する確率論的自己回帰生成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-16T06:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。