論文の概要: Single Object Tracking through a Fast and Effective Single-Multiple
Model Convolutional Neural Network
- arxiv url: http://arxiv.org/abs/2103.15105v1
- Date: Sun, 28 Mar 2021 11:02:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 15:02:28.993967
- Title: Single Object Tracking through a Fast and Effective Single-Multiple
Model Convolutional Neural Network
- Title(参考訳): 高速かつ効果的な単一多重モデル畳み込みニューラルネットワークによる単一物体追跡
- Authors: Faraz Lotfi, Hamid D. Taghirad
- Abstract要約: 最近の最先端の(SOTA)アプローチは、エリア内の他のオブジェクトとターゲットを区別するために重い構造を持つマッチングネットワークを取ることに基づいて提案されています。
本稿では,これまでのアプローチとは対照的に,一つのショットで物体の位置を識別できる特殊なアーキテクチャを提案する。
提示されたトラッカーは、1080tiで最大120 fps$の超高速で、挑戦的な状況でsomaと比較してパフォーマンスする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object tracking becomes critical especially when similar objects are present
in the same area. Recent state-of-the-art (SOTA) approaches are proposed based
on taking a matching network with a heavy structure to distinguish the target
from other objects in the area which indeed drastically downgrades the
performance of the tracker in terms of speed. Besides, several candidates are
considered and processed to localize the intended object in a region of
interest for each frame which is time-consuming. In this article, a special
architecture is proposed based on which in contrast to the previous approaches,
it is possible to identify the object location in a single shot while taking
its template into account to distinguish it from the similar objects in the
same area. In brief, first of all, a window containing the object with twice
the target size is considered. This window is then fed into a fully
convolutional neural network (CNN) to extract a region of interest (RoI) in a
form of a matrix for each of the frames. In the beginning, a template of the
target is also taken as the input to the CNN. Considering this RoI matrix, the
next movement of the tracker is determined based on a simple and fast method.
Moreover, this matrix helps to estimate the object size which is crucial when
it changes over time. Despite the absence of a matching network, the presented
tracker performs comparatively with the SOTA in challenging situations while
having a super speed compared to them (up to $120 FPS$ on 1080ti). To
investigate this claim, a comparison study is carried out on the GOT-10k
dataset. Results reveal the outstanding performance of the proposed method in
fulfilling the task.
- Abstract(参考訳): 類似したオブジェクトが同じ領域に存在する場合、オブジェクト追跡は特に重要になる。
近年のSOTA(State-of-the-art)アプローチは,トラッカーの性能を大幅に低下させる領域において,ターゲットを他の物体と区別するために,重構造と整合するネットワークを用いて提案されている。
また、複数の候補が考慮され、時間を要する各フレームの関心領域に対象オブジェクトをローカライズするために処理される。
本稿では,従来のアプローチとは対照的に,同一領域の類似したオブジェクトと区別するためにテンプレートを考慮しながら,単一のショットでオブジェクトの位置を識別することが可能な,特別なアーキテクチャを提案する。
まず第一に、ターゲットサイズが2倍のオブジェクトを含むウィンドウを考える。
このウィンドウは完全な畳み込みニューラルネットワーク(CNN)に入力され、各フレームのマトリックスの形式で関心領域(RoI)を抽出する。
はじめに、ターゲットのテンプレートもcnnへの入力として取り込まれる。
このRoI行列を考慮すると、トラッカーの次の動きは単純かつ高速な方法に基づいて決定される。
さらに、このマトリックスは、時間とともに変化するときに重要なオブジェクトサイズを推定するのに役立ちます。
マッチングネットワークがないにもかかわらず、提示されたトラッカーはSOTAと比較的困難な状況下で動作し、それに比べて超高速である(最大120FPS$ on 1080ti)。
この主張を調べるため、GOT-10kデータセットで比較研究を行った。
その結果,提案手法の課題遂行における優れた性能が得られた。
関連論文リスト
- UnsMOT: Unified Framework for Unsupervised Multi-Object Tracking with
Geometric Topology Guidance [6.577227592760559]
UnsMOTは、オブジェクトの外観と運動の特徴と幾何学的情報を組み合わせて、より正確なトラッキングを提供する新しいフレームワークである。
実験結果から, HOTA, IDF1, MOTAの計測値において, 最先端手法と比較して顕著な性能を示した。
論文 参考訳(メタデータ) (2023-09-03T04:58:12Z) - Spatial-Temporal Graph Enhanced DETR Towards Multi-Frame 3D Object Detection [54.041049052843604]
STEMDは,多フレーム3Dオブジェクト検出のためのDETRのようなパラダイムを改良した,新しいエンドツーエンドフレームワークである。
まず、オブジェクト間の空間的相互作用と複雑な時間的依存をモデル化するために、空間的時間的グラフアテンションネットワークを導入する。
最後に、ネットワークが正のクエリと、ベストマッチしない他の非常に類似したクエリを区別することが課題となる。
論文 参考訳(メタデータ) (2023-07-01T13:53:14Z) - IoU-Enhanced Attention for End-to-End Task Specific Object Detection [17.617133414432836]
R-CNNは画像に密着したアンカーボックスやグリッドポイントを使わずに有望な結果が得られる。
クエリとアテンション領域の間のスパースの性質と1対1の関係のため、自己注意に大きく依存する。
本稿では,自己注意における値ルーティングの先行として,異なるボックス間でIoUを使用することを提案する。
論文 参考訳(メタデータ) (2022-09-21T14:36:18Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Spatiotemporal Graph Neural Network based Mask Reconstruction for Video
Object Segmentation [70.97625552643493]
本稿では,クラス非依存オブジェクトを半教師あり設定でセグメント化するタスクについて述べる。
提案手法のすべてを利用して局所的なコンテキストを捕捉する新しいグラフニューラルネットワーク(TG-Net)を提案する。
論文 参考訳(メタデータ) (2020-12-10T07:57:44Z) - Graph Attention Tracking [76.19829750144564]
汎用オブジェクト追跡のための簡易な目標認識型シームズグラフアテンションネットワークを提案する。
GOT-10k、UAV123、TB-100、LaSOTといった挑戦的なベンチマークの実験は、提案されたSiamGATが最先端のトラッカーよりも優れていることを示した。
論文 参考訳(メタデータ) (2020-11-23T04:26:45Z) - Learning Spatio-Appearance Memory Network for High-Performance Visual
Tracking [79.80401607146987]
既存のオブジェクトトラッキングは通常、フレーム間の視覚的ターゲットにマッチするバウンディングボックスベースのテンプレートを学習する。
本稿では,局所時間メモリネットワークを備え,正確な時空間対応を学習するセグメンテーションに基づくトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-21T08:12:02Z) - Novel Perception Algorithmic Framework For Object Identification and
Tracking In Autonomous Navigation [1.370633147306388]
本稿では,自律走行車における物体の認識・追跡機能を備えた新しい認識フレームワークを提案する。
このフレームワークは、Ego-vehicleのポーズ推定とKD-Treeベースのゴールセグメンテーションアルゴリズムを利用する。
方法論の有効性は、KITTIデータセット上で検証される。
論文 参考訳(メタデータ) (2020-06-08T18:21:40Z) - Applying r-spatiogram in object tracking for occlusion handling [16.36552899280708]
映像追跡の目的は、動画シーケンス内の移動対象を正確に特定し、そのシーケンスの特徴空間内の非ターゲットから目標を識別することである。
本稿では,オブジェクトモデリング,オブジェクト検出とローカライゼーション,モデル更新という,参照モデルの3つの主要コンポーネントで構成される多くのトラッカーの基本概念を用いる。
論文 参考訳(メタデータ) (2020-03-18T02:42:51Z) - Depthwise Non-local Module for Fast Salient Object Detection Using a
Single Thread [136.2224792151324]
本稿では,高速な物体検出のための新しいディープラーニングアルゴリズムを提案する。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
論文 参考訳(メタデータ) (2020-01-22T15:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。