論文の概要: End-to-end Deep Object Tracking with Circular Loss Function for Rotated
Bounding Box
- arxiv url: http://arxiv.org/abs/2012.09771v1
- Date: Thu, 17 Dec 2020 17:29:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 13:23:16.558776
- Title: End-to-end Deep Object Tracking with Circular Loss Function for Rotated
Bounding Box
- Title(参考訳): 回転バウンディングボックスの円形損失関数を用いた終端物体追跡
- Authors: Vladislav Belyaev, Aleksandra Malysheva, Aleksei Shpilman
- Abstract要約: Transformer Multi-Head Attentionアーキテクチャに基づく新しいエンドツーエンドのディープラーニング手法を紹介します。
また,境界ボックスの重なりと向きを考慮に入れた新しいタイプの損失関数を提案する。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The task object tracking is vital in numerous applications such as autonomous
driving, intelligent surveillance, robotics, etc. This task entails the
assigning of a bounding box to an object in a video stream, given only the
bounding box for that object on the first frame. In 2015, a new type of video
object tracking (VOT) dataset was created that introduced rotated bounding
boxes as an extension of axis-aligned ones. In this work, we introduce a novel
end-to-end deep learning method based on the Transformer Multi-Head Attention
architecture. We also present a new type of loss function, which takes into
account the bounding box overlap and orientation.
Our Deep Object Tracking model with Circular Loss Function (DOTCL) shows an
considerable improvement in terms of robustness over current state-of-the-art
end-to-end deep learning models. It also outperforms state-of-the-art object
tracking methods on VOT2018 dataset in terms of expected average overlap (EAO)
metric.
- Abstract(参考訳): タスクオブジェクトのトラッキングは、自動運転、インテリジェントな監視、ロボット工学など、多くのアプリケーションで不可欠です。
このタスクは、ビデオストリーム内のオブジェクトへのバウンディングボックスの割り当てを伴い、最初のフレームのオブジェクトのバウンディングボックスのみを与えられる。
2015年、軸に沿ったものの拡張として回転バウンディングボックスを導入した新しいタイプのビデオオブジェクト追跡(VOT)データセットが作成された。
本研究では,Transformer Multi-Head Attentionアーキテクチャに基づくエンドツーエンドのディープラーニング手法を提案する。
また,境界ボックスの重なりと向きを考慮に入れた新しいタイプの損失関数を提案する。
円形損失関数(DOTCL)を用いたDeep Object Trackingモデルでは,現在の最先端のディープラーニングモデルよりも堅牢性が大幅に向上している。
また、期待平均オーバーラップ(EAO)メトリックの観点から、VOT2018データセットの最先端のオブジェクトトラッキング手法よりも優れています。
関連論文リスト
- Zero-Shot Open-Vocabulary Tracking with Large Pre-Trained Models [28.304047711166056]
大規模事前訓練モデルでは、野生の2次元静的画像中の物体の検出とセグメンテーションの進歩が期待できる。
このような大規模なトレーニング済みの静的イメージモデルを,オープン語彙のビデオトラッキングに再利用することは可能だろうか?
本稿では,オープンボキャブラリ検出器,セグメンタ,高密度光流推定器を,任意のカテゴリの物体を2Dビデオで追跡・セグメント化するモデルに再構成する。
論文 参考訳(メタデータ) (2023-10-10T20:25:30Z) - UnsMOT: Unified Framework for Unsupervised Multi-Object Tracking with
Geometric Topology Guidance [6.577227592760559]
UnsMOTは、オブジェクトの外観と運動の特徴と幾何学的情報を組み合わせて、より正確なトラッキングを提供する新しいフレームワークである。
実験結果から, HOTA, IDF1, MOTAの計測値において, 最先端手法と比較して顕著な性能を示した。
論文 参考訳(メタデータ) (2023-09-03T04:58:12Z) - TrajectoryFormer: 3D Object Tracking Transformer with Predictive
Trajectory Hypotheses [51.60422927416087]
3Dマルチオブジェクトトラッキング(MOT)は、自律走行車やサービスロボットを含む多くのアプリケーションにとって不可欠である。
本稿では,新しいポイントクラウドベースの3DMOTフレームワークであるTrjectoryFormerを紹介する。
論文 参考訳(メタデータ) (2023-06-09T13:31:50Z) - Contrastive Lift: 3D Object Instance Segmentation by Slow-Fast
Contrastive Fusion [110.84357383258818]
本稿では,2次元セグメントを3次元に上げ,ニューラルネットワーク表現を用いて融合させる新しい手法を提案する。
このアプローチの中核は、高速なクラスタリング目的関数であり、多数のオブジェクトを持つシーンにスケーラブルで適しています。
我々のアプローチは、ScanNet、Hypersim、Replicaのデータセットからの挑戦的なシーンにおいて、最先端の状況よりも優れています。
論文 参考訳(メタデータ) (2023-06-07T17:57:45Z) - Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR
based 3D Object Detection [50.959453059206446]
本稿では,高性能なオフラインLiDARによる3Dオブジェクト検出を実現することを目的とする。
まず、経験豊富な人間のアノテータが、トラック中心の視点でオブジェクトに注釈を付けるのを観察する。
従来のオブジェクト中心の視点ではなく,トラック中心の視点で高性能なオフライン検出器を提案する。
論文 参考訳(メタデータ) (2023-04-24T17:59:05Z) - OPA-3D: Occlusion-Aware Pixel-Wise Aggregation for Monocular 3D Object
Detection [51.153003057515754]
OPA-3Dは、Occlusion-Aware Pixel-Wise Aggregationネットワークである。
密集した風景深度と、奥行きのある箱残量と物の境界箱を共同で推定する。
メインカーのカテゴリーでは最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-11-02T14:19:13Z) - RLM-Tracking: Online Multi-Pedestrian Tracking Supported by Relative
Location Mapping [5.9669075749248774]
マルチオブジェクトトラッキングの問題は、公安、輸送、自動運転車、ロボティクス、人工知能を含む他の領域で広く利用されている、基本的なコンピュータビジョン研究の焦点である。
本稿では、オブジェクト textbfRelative Location Mapping (RLM) モデルと textbfTarget Region Density (TRD) モデルを含む、上記の問題に対する新しいマルチオブジェクトトラッカーを設計する。
新しいトラッカーは、オブジェクト間の位置関係の違いに敏感である。
物体の密度に応じてリアルタイムで異なる領域に低スコア検出フレームを導入することができる
論文 参考訳(メタデータ) (2022-10-19T11:37:14Z) - Recent Trends in 2D Object Detection and Applications in Video Event
Recognition [0.76146285961466]
物体検出における先駆的な研究について論じるとともに,近年のディープラーニングを活用したブレークスルーも取り上げている。
本稿では、画像とビデオの両方で2次元物体検出のための最近のデータセットを強調し、様々な最先端物体検出技術の比較性能の概要を示す。
論文 参考訳(メタデータ) (2022-02-07T14:15:11Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。