論文の概要: Object Tracking through Residual and Dense LSTMs
- arxiv url: http://arxiv.org/abs/2006.12061v1
- Date: Mon, 22 Jun 2020 08:20:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 06:24:48.986246
- Title: Object Tracking through Residual and Dense LSTMs
- Title(参考訳): 残留・高密度LSTMによる物体追跡
- Authors: Fabio Garcea and Alessandro Cucco and Lia Morra and Fabrizio Lamberti
- Abstract要約: LSTM(Long Short-Term Memory)リカレントニューラルネットワークに基づくディープラーニングベースのトラッカーが、強力な代替手段として登場した。
DenseLSTMはResidualおよびRegular LSTMより優れ、ニュアンセに対する高いレジリエンスを提供する。
ケーススタディは、他のトラッカーの堅牢性を高めるために残差ベースRNNの採用を支援する。
- 参考スコア(独自算出の注目度): 67.98948222599849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual object tracking task is constantly gaining importance in several
fields of application as traffic monitoring, robotics, and surveillance, to
name a few. Dealing with changes in the appearance of the tracked object is
paramount to achieve high tracking accuracy, and is usually achieved by
continually learning features. Recently, deep learning-based trackers based on
LSTMs (Long Short-Term Memory) recurrent neural networks have emerged as a
powerful alternative, bypassing the need to retrain the feature extraction in
an online fashion. Inspired by the success of residual and dense networks in
image recognition, we propose here to enhance the capabilities of hybrid
trackers using residual and/or dense LSTMs. By introducing skip connections, it
is possible to increase the depth of the architecture while ensuring a fast
convergence. Experimental results on the Re3 tracker show that DenseLSTMs
outperform Residual and regular LSTM, and offer a higher resilience to
nuisances such as occlusions and out-of-view objects. Our case study supports
the adoption of residual-based RNNs for enhancing the robustness of other
trackers.
- Abstract(参考訳): 視覚オブジェクト追跡タスクは、トラフィック監視、ロボティクス、監視など、いくつかの分野のアプリケーションにおいて、常に重要になっている。
追跡対象の外観の変化に対処することは、高い追跡精度を達成するために最重要であり、通常は継続的に学習する特徴によって達成される。
近年、LSTM(Long Short-Term Memory)リカレントニューラルネットワークに基づくディープラーニングベースのトラッカーが強力な代替手段として登場し、オンライン方式で機能抽出を再トレーニングする必要がなくなった。
本稿では,画像認識における残差・高密度ネットワークの成功に触発されて,残差・高密度LSTMを用いたハイブリッドトラッカーの性能向上を提案する。
スキップ接続を導入することで、迅速な収束を確保しつつアーキテクチャの深さを増大させることができる。
Re3トラッカーの実験結果によると、DenseLSTMはResidualや通常のLSTMよりも優れており、オクルージョンやアウトオブビューオブジェクトのようなニュアンサーに高いレジリエンスを提供する。
ケーススタディは, 他のトラッカーの堅牢性を高めるために, 残留型RNNの採用を支援する。
関連論文リスト
- LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [56.95046107046027]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Towards Energy-Efficient, Low-Latency and Accurate Spiking LSTMs [1.7969777786551424]
Spiking Neural Networks(SNN)は、複雑なタスクのための魅力的なテンポラルコンピューティングパラダイムビジョンとして登場した。
そこで本研究では,新規な長期記憶ネットワーク(LSTM)の学習フレームワークを提案する。
rev-to-SNN変換フレームワーク、続いてSNNトレーニング。
我々は、時間的M、Google Speech Commands(GSC)データセット、異なるLSTMアーキテクチャ上のUCIスマートフォンなど、逐次学習タスクに関するフレームワークを評価した。
論文 参考訳(メタデータ) (2022-10-23T04:10:27Z) - Correlation-Aware Deep Tracking [83.51092789908677]
本稿では,自己/横断的意図に着想を得た,新たなターゲット依存型特徴ネットワークを提案する。
我々のネットワークは機能ネットワークの複数の層にクロスイメージの特徴相関を深く埋め込んでいる。
我々のモデルは、豊富な未ペア画像に対して柔軟に事前訓練が可能であり、既存の手法よりも顕著に高速な収束をもたらす。
論文 参考訳(メタデータ) (2022-03-03T11:53:54Z) - Deep Feature Tracker: A Novel Application for Deep Convolutional Neural
Networks [0.0]
本稿では,特徴を確実に追跡する方法を学習できる,新しい,統合されたディープラーニングベースのアプローチを提案する。
Deep-PTと呼ばれる提案ネットワークは、畳み込みニューラルネットワークの相互相関であるトラッカーネットワークで構成されている。
ネットワークは、特徴追跡データセットに特別なデータセットがないため、複数のデータセットを使用してトレーニングされている。
論文 参考訳(メタデータ) (2021-07-30T23:24:29Z) - MOTS R-CNN: Cosine-margin-triplet loss for multi-object tracking [2.8935588665357077]
マルチオブジェクトトラッキングの中心的なタスクの1つは、オブジェクトの意味的類似性と一致した距離メートル法を学習することである。
本稿では,コサイン・マージン・トラストティブ (CMC) とコサイン・マージン・トリップレット (CMT) の損失について,コントラスト型とトリプルト型の両方の損失関数を再構成することによって提案する。
次に,マルチオブジェクト追跡とセグメンテーションのためのMOTS R-CNNフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-06T05:03:29Z) - A journey in ESN and LSTM visualisations on a language task [77.34726150561087]
我々は,CSL(Cross-Situationnal Learning)タスクでESNとLSTMを訓練した。
その結果, 性能比較, 内部力学解析, 潜伏空間の可視化の3種類が得られた。
論文 参考訳(メタデータ) (2020-12-03T08:32:01Z) - TRAT: Tracking by Attention Using Spatio-Temporal Features [14.520067060603209]
空間的特徴と時間的特徴の両方を利用する2ストリームディープニューラルネットワークトラッカーを提案する。
我々のアーキテクチャはATOMトラッカー上で開発され、 (i) 外観特徴を捉える2D-CNNネットワークと (ii) 動作特徴を捉える3D-CNNネットワークの2つのバックボーンを含んでいる。
論文 参考訳(メタデータ) (2020-11-18T20:11:12Z) - Self-supervised Object Tracking with Cycle-consistent Siamese Networks [55.040249900677225]
我々は、オブジェクト追跡のためのサイクル一貫性の自己監視フレームワークにおいて、エンドツーエンドのSiameseネットワークを利用する。
トラッキングフレームワークにシームズ領域の提案とマスク回帰ネットワークを統合することで,各フレームのアノテーションを使わずに,より高速で正確なトラッカーを学習できるようにすることを提案する。
論文 参考訳(メタデータ) (2020-08-03T04:10:38Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z) - Object-Adaptive LSTM Network for Real-time Visual Tracking with
Adversarial Data Augmentation [31.842910084312265]
本稿では,オブジェクト適応型LSTMネットワークを用いて,映像の逐次的依存関係を効果的に捕捉し,オブジェクトの外観変化を適応的に学習する,新しいリアルタイムビジュアルトラッキング手法を提案する。
4つのビジュアルトラッキングベンチマーク実験により,トラッキング精度と速度の両面から,提案手法の最先端性能を実証した。
論文 参考訳(メタデータ) (2020-02-07T03:06:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。