論文の概要: PointTrack++ for Effective Online Multi-Object Tracking and Segmentation
- arxiv url: http://arxiv.org/abs/2007.01549v1
- Date: Fri, 3 Jul 2020 08:28:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 05:38:45.014575
- Title: PointTrack++ for Effective Online Multi-Object Tracking and Segmentation
- Title(参考訳): オンラインマルチオブジェクトトラッキングとセグメンテーションのためのpointtrack++
- Authors: Zhenbo Xu, Wei Zhang, Xiao Tan, Wei Yang, Xiangbo Su, Yuchen Yuan,
Hongwu Zhang, Shilei Wen, Errui Ding, Liusheng Huang
- Abstract要約: マルチオブジェクトトラッキングとセグメンテーション(MOTS)は、複数オブジェクト追跡(MOT)とインスタンスセグメンテーションを共同で行うことを目的とした、新しいコンピュータビジョンタスクである。
私たちは、最近提案したPointTrackフレームワークを著しく拡張した、MOTSのオンラインフレームワークであるPointTrack++を紹介します。
このフレームワークは第5BMTT MOTChallenge上での最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 63.825223123350874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple-object tracking and segmentation (MOTS) is a novel computer vision
task that aims to jointly perform multiple object tracking (MOT) and instance
segmentation. In this work, we present PointTrack++, an effective on-line
framework for MOTS, which remarkably extends our recently proposed PointTrack
framework. To begin with, PointTrack adopts an efficient one-stage framework
for instance segmentation, and learns instance embeddings by converting compact
image representations to un-ordered 2D point cloud. Compared with PointTrack,
our proposed PointTrack++ offers three major improvements. Firstly, in the
instance segmentation stage, we adopt a semantic segmentation decoder trained
with focal loss to improve the instance selection quality. Secondly, to further
boost the segmentation performance, we propose a data augmentation strategy by
copy-and-paste instances into training images. Finally, we introduce a better
training strategy in the instance association stage to improve the
distinguishability of learned instance embeddings. The resulting framework
achieves the state-of-the-art performance on the 5th BMTT MOTChallenge.
- Abstract(参考訳): マルチオブジェクトトラッキングとセグメンテーション(MOTS)は、複数オブジェクト追跡(MOT)とインスタンスセグメンテーションを共同で行うことを目的とした、新しいコンピュータビジョンタスクである。
本稿では、MOTSの効果的なオンラインフレームワークであるPointTrack++を紹介し、最近提案したPointTrackフレームワークを著しく拡張する。
まず、pointtrackはセグメンテーションの効率的なワンステージフレームワークを採用し、コンパクトなイメージ表現を非注文の2dポイントクラウドに変換することで、インスタンス埋め込みを学習する。
PointTrackと比較すると、提案したPointTrack++には3つの大きな改善があります。
まず、インスタンスセグメンテーションの段階では、焦点損失で訓練されたセマンティックセグメンテーションデコーダを採用し、インスタンスの選択品質を向上させる。
次に、セグメンテーション性能をさらに向上させるために、画像のコピー&ペーストによるデータ拡張戦略を提案する。
最後に、学習したインスタンス埋め込みの識別性を改善するために、インスタンスアソシエーション段階でより良いトレーニング戦略を導入する。
このフレームワークは第5BMTT MOTChallengeにおける最先端のパフォーマンスを実現する。
関連論文リスト
- 3D-Aware Instance Segmentation and Tracking in Egocentric Videos [107.10661490652822]
エゴセントリックなビデオは、3Dシーンの理解にユニークな課題を提示する。
本稿では,一対一のビデオにおけるインスタンスのセグメンテーションとトラッキングに対する新しいアプローチを提案する。
空間的および時間的手がかりを取り入れることで、最先端の2D手法と比較して優れた性能が得られる。
論文 参考訳(メタデータ) (2024-08-19T10:08:25Z) - Segment Anything Meets Point Tracking [116.44931239508578]
本稿では,SAMと長期点追跡を併用した,ポイント中心の対話型ビデオセグメンテーションの新たな手法を提案する。
ゼロショットオープンワールドUnidentified Video Objects(UVO)ベンチマークで直接評価することで,ポイントベーストラッキングのメリットを強調した。
DAVIS, YouTube-VOS, BDD100Kなどの人気ビデオオブジェクトのセグメンテーションと多目的セグメンテーションのベンチマーク実験により, ポイントベースセグメンテーショントラッカーがより優れたゼロショット性能と効率的なインタラクションをもたらすことが示唆された。
論文 参考訳(メタデータ) (2023-07-03T17:58:01Z) - Learning Inter-Superpoint Affinity for Weakly Supervised 3D Instance
Segmentation [10.968271388503986]
本稿では,各インスタンスに1点だけアノテートすることで,優れたパフォーマンスを実現する3Dインスタンスセグメンテーションフレームワークを提案する。
本手法は,弱教師付きポイントクラウドインスタンスセグメンテーションタスクにおける最先端性能を実現し,完全教師付き手法よりも優れる。
論文 参考訳(メタデータ) (2022-10-11T15:22:22Z) - A Discriminative Single-Shot Segmentation Network for Visual Object
Tracking [13.375369415113534]
本稿では,識別可能な単発セグメンテーショントラッカーD3S2を提案する。
単ショットネットワークは、相補的な幾何学的性質を持つ2つのターゲットモデルを適用する。
D3S2はビデオオブジェクトセグメンテーションベンチマークでリードセグメンテーショントラッカーのSiamMaskを上回っている。
論文 参考訳(メタデータ) (2021-12-22T12:48:51Z) - Fast Video Object Segmentation With Temporal Aggregation Network and
Dynamic Template Matching [67.02962970820505]
ビデオオブジェクト(VOS)に「トラッキング・バイ・検出」を導入する。
本稿では,時間的アグリゲーションネットワークと動的時間進化テンプレートマッチング機構を提案する。
我々は,DAVISベンチマークで1フレームあたり0.14秒,J&Fで75.9%の速度で,複雑なベルとホイッスルを伴わずに,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-11T05:44:16Z) - Segment as Points for Efficient Online Multi-Object Tracking and
Segmentation [66.03023110058464]
本稿では,コンパクトな画像表現を非秩序な2次元点クラウド表現に変換することで,セグメントに基づくインスタンス埋め込みの学習に有効な方法を提案する。
本手法は,画像ではなく,ランダムに選択された点から識別インスタンスの埋め込みを学習する,新たなトラッキング・バイ・ポイントのパラダイムを生成する。
PointTrackという名前のオンラインMOTSフレームワークは、最先端のすべてのメソッドを大きなマージンで上回っている。
論文 参考訳(メタデータ) (2020-07-03T08:29:35Z) - Few-shot 3D Point Cloud Semantic Segmentation [138.80825169240302]
本稿では,新しい注意型マルチプロトタイプトランスダクティブ・ショットポイント・クラウドセマンティックセマンティック・セマンティクス法を提案する。
提案手法は,雲のセマンティックセマンティックセグメンテーション設定の違いによるベースラインに比べて,顕著で一貫した改善を示す。
論文 参考訳(メタデータ) (2020-06-22T08:05:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。