論文の概要: End-to-end Deep Object Tracking with Circular Loss Function for Rotated
Bounding Box
- arxiv url: http://arxiv.org/abs/2012.09771v1
- Date: Thu, 17 Dec 2020 17:29:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 13:23:16.558776
- Title: End-to-end Deep Object Tracking with Circular Loss Function for Rotated
Bounding Box
- Title(参考訳): 回転バウンディングボックスの円形損失関数を用いた終端物体追跡
- Authors: Vladislav Belyaev, Aleksandra Malysheva, Aleksei Shpilman
- Abstract要約: Transformer Multi-Head Attentionアーキテクチャに基づく新しいエンドツーエンドのディープラーニング手法を紹介します。
また,境界ボックスの重なりと向きを考慮に入れた新しいタイプの損失関数を提案する。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The task object tracking is vital in numerous applications such as autonomous
driving, intelligent surveillance, robotics, etc. This task entails the
assigning of a bounding box to an object in a video stream, given only the
bounding box for that object on the first frame. In 2015, a new type of video
object tracking (VOT) dataset was created that introduced rotated bounding
boxes as an extension of axis-aligned ones. In this work, we introduce a novel
end-to-end deep learning method based on the Transformer Multi-Head Attention
architecture. We also present a new type of loss function, which takes into
account the bounding box overlap and orientation.
Our Deep Object Tracking model with Circular Loss Function (DOTCL) shows an
considerable improvement in terms of robustness over current state-of-the-art
end-to-end deep learning models. It also outperforms state-of-the-art object
tracking methods on VOT2018 dataset in terms of expected average overlap (EAO)
metric.
- Abstract(参考訳): タスクオブジェクトのトラッキングは、自動運転、インテリジェントな監視、ロボット工学など、多くのアプリケーションで不可欠です。
このタスクは、ビデオストリーム内のオブジェクトへのバウンディングボックスの割り当てを伴い、最初のフレームのオブジェクトのバウンディングボックスのみを与えられる。
2015年、軸に沿ったものの拡張として回転バウンディングボックスを導入した新しいタイプのビデオオブジェクト追跡(VOT)データセットが作成された。
本研究では,Transformer Multi-Head Attentionアーキテクチャに基づくエンドツーエンドのディープラーニング手法を提案する。
また,境界ボックスの重なりと向きを考慮に入れた新しいタイプの損失関数を提案する。
円形損失関数(DOTCL)を用いたDeep Object Trackingモデルでは,現在の最先端のディープラーニングモデルよりも堅牢性が大幅に向上している。
また、期待平均オーバーラップ(EAO)メトリックの観点から、VOT2018データセットの最先端のオブジェクトトラッキング手法よりも優れています。
関連論文リスト
- Recent Trends in 2D Object Detection and Applications in Video Event
Recognition [0.76146285961466]
物体検出における先駆的な研究について論じるとともに,近年のディープラーニングを活用したブレークスルーも取り上げている。
本稿では、画像とビデオの両方で2次元物体検出のための最近のデータセットを強調し、様々な最先端物体検出技術の比較性能の概要を示す。
論文 参考訳(メタデータ) (2022-02-07T14:15:11Z) - Object-aware Monocular Depth Prediction with Instance Convolutions [72.98771405534937]
本稿では,特徴集合を避けるために明示的に調整された新しい畳み込み演算子を提案する。
提案手法は,部分ごとの深度をスーパーピクセルで推定する。
NYUv2とiBimsデータセットに対する我々の評価は、インスタンスの畳み込みの優位性を明確に示している。
論文 参考訳(メタデータ) (2021-12-02T18:59:48Z) - DAFNe: A One-Stage Anchor-Free Deep Model for Oriented Object Detection [16.21161769128316]
DAFNe: オブジェクト指向物体検出のためのワンステージアンカーフリーディープネットワークを提案する。
アンカーフリーモデルとして、DAFNeはバウンディングボックスアンカーの使用を控えることで予測複雑性を低減する。
低品質な予測に対する任意指向の有界箱に対する中心性関数の指向性を考慮した一般化を提案する。
論文 参考訳(メタデータ) (2021-09-13T17:37:20Z) - Learning to Track Object Position through Occlusion [32.458623495840904]
オクルージョンは、物体検出器やトラッカーが直面する最も重要な課題の1つである。
本稿では,領域ベースビデオオブジェクト検出装置の成功に基づくトラッキング・バイ・検出手法を提案する。
提案手法は,インターネットから収集した家具組立ビデオのデータセットにおいて,優れた結果が得られる。
論文 参考訳(メタデータ) (2021-06-20T22:29:46Z) - Polygonal Point Set Tracking [50.445151155209246]
本稿では,学習に基づく多角形点集合追跡手法を提案する。
私たちのゴールは、ターゲットの輪郭上の対応する点を追跡することです。
本稿では,部分歪みとテキストマッピングに対する本手法の視覚効果について述べる。
論文 参考訳(メタデータ) (2021-05-30T17:12:36Z) - Oriented Bounding Boxes for Small and Freely Rotated Objects [7.6997148655751895]
任意のサイズの自由回転物体を処理する新しい物体検出方法を提示する。
この方法は、グリッドセル位置におけるターゲットオブジェクトの特徴の正確な位置と向きを符号化する。
xView と DOTA データセットの評価から,提案手法は既存の最先端手法よりも一様に性能を向上することが示された。
論文 参考訳(メタデータ) (2021-04-24T02:04:49Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Learning Spatio-Temporal Transformer for Visual Tracking [108.11680070733598]
本稿では,エンコーダ・デコーダ変換器をキーコンポーネントとする新しいトラッキングアーキテクチャを提案する。
メソッド全体がエンドツーエンドであり、コサインウィンドウやバウンディングボックススムーシングのような後処理ステップは不要である。
提案されたトラッカーは、Siam R-CNNよりも6倍速いリアルタイム速度を実行しながら、5つのチャレンジングな短期および長期ベンチマークで最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-03-31T15:19:19Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。