論文の概要: Deep Feature Tracker: A Novel Application for Deep Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2108.00105v1
- Date: Fri, 30 Jul 2021 23:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-05 05:55:21.640121
- Title: Deep Feature Tracker: A Novel Application for Deep Convolutional Neural
Networks
- Title(参考訳): Deep Feature Tracker: Deep Convolutional Neural Networksの新しいアプリケーション
- Authors: Mostafa Parchami, Saif Iftekar Sayed
- Abstract要約: 本稿では,特徴を確実に追跡する方法を学習できる,新しい,統合されたディープラーニングベースのアプローチを提案する。
Deep-PTと呼ばれる提案ネットワークは、畳み込みニューラルネットワークの相互相関であるトラッカーネットワークで構成されている。
ネットワークは、特徴追跡データセットに特別なデータセットがないため、複数のデータセットを使用してトレーニングされている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Feature tracking is the building block of many applications such as visual
odometry, augmented reality, and target tracking. Unfortunately, the
state-of-the-art vision-based tracking algorithms fail in surgical images due
to the challenges imposed by the nature of such environments. In this paper, we
proposed a novel and unified deep learning-based approach that can learn how to
track features reliably as well as learn how to detect such reliable features
for tracking purposes. The proposed network dubbed as Deep-PT, consists of a
tracker network which is a convolutional neural network simulating
cross-correlation in terms of deep learning and two fully connected networks
that operate on the output of intermediate layers of the tracker to detect
features and predict trackability of the detected points. The ability to detect
features based on the capabilities of the tracker distinguishes the proposed
method from previous algorithms used in this area and improves the robustness
of the algorithms against dynamics of the scene. The network is trained using
multiple datasets due to the lack of specialized dataset for feature tracking
datasets and extensive comparisons are conducted to compare the accuracy of
Deep-PT against recent pixel tracking algorithms. As the experiments suggest,
the proposed deep architecture deliberately learns what to track and how to
track and outperforms the state-of-the-art methods.
- Abstract(参考訳): 機能トラッキングは、視覚計測、拡張現実、ターゲットトラッキングなど、多くのアプリケーションのビルディングブロックである。
残念なことに、最先端の視覚ベースの追跡アルゴリズムは、そのような環境の性質がもたらす課題のために、手術画像では失敗する。
そこで本論文では,特徴の追跡法を学習し,そのような信頼性の高い特徴を追跡のために検出する方法を学習できる,新しい統合型深層学習手法を提案する。
提案するDeep-PTと呼ばれるネットワークは、ディープラーニングの観点から相互相関をシミュレートする畳み込みニューラルネットワークであるトラッカーネットワークと、トラッカーの中間層を出力して検出された点の特徴を検出し、追跡可能性を予測する2つの完全連結ネットワークで構成されている。
トラッカーの能力に基づいて特徴を検出する能力は,提案手法とこの分野で使用されているアルゴリズムを区別し,シーンのダイナミックスに対するアルゴリズムの堅牢性を向上させる。
ネットワークは、特徴追跡データセットのための特別なデータセットがないため、複数のデータセットを使用してトレーニングされ、deep-ptの精度と最近のピクセル追跡アルゴリズムを比較するために広範囲な比較が行われる。
実験が示すように、提案されたディープアーキテクチャは、最先端のメソッドを追跡し、どのように追跡するかを意図的に学習する。
関連論文リスト
- SSP-GNN: Learning to Track via Bilevel Optimization [3.1889516673296807]
マルチオブジェクトトラッキング(MOT)のためのグラフベースのトラッキング形式を提案する。
本手法は,一組のフレーム上で定義された追跡グラフに対して,逐次最短経路 (SSP) アルゴリズムを適用した。
この追跡グラフのエッジコストは、グラフニューラルネットワーク(GNN)の変種であるメッセージパスネットワークを介して計算される。
論文 参考訳(メタデータ) (2024-07-05T07:23:51Z) - Lightweight Monocular Depth Estimation with an Edge Guided Network [34.03711454383413]
本稿では,新しいエッジガイド深度推定ネットワーク(EGD-Net)を提案する。
特に、軽量なエンコーダデコーダアーキテクチャから始め、エッジガイダンスブランチを組み込む。
コンテクスト情報とエッジアテンション特徴を集約するために,トランスフォーマーをベースとした機能アグリゲーションモジュールを設計する。
論文 参考訳(メタデータ) (2022-09-29T14:45:47Z) - Minkowski Tracker: A Sparse Spatio-Temporal R-CNN for Joint Object
Detection and Tracking [53.64390261936975]
我々はオブジェクトの検出と追跡を共同で解決するスパース時間R-CNNであるMinkowski Trackerを提案する。
領域ベースCNN(R-CNN)に着想を得て,物体検出器R-CNNの第2段階として動きを追跡することを提案する。
大規模実験では,本手法の総合的な性能向上は4つの要因によることがわかった。
論文 参考訳(メタデータ) (2022-08-22T04:47:40Z) - A Bayesian Detect to Track System for Robust Visual Object Tracking and
Semi-Supervised Model Learning [1.7268829007643391]
ニューラルネットワークの出力によってパラメータ化されたベイズ追跡・検出フレームワークにおける副次的問題について述べる。
本稿では,粒子フィルタを用いた物体状態推定のための近似サンプリングアルゴリズムを提案する。
粒子フィルタ推論アルゴリズムを用いて,間欠的なラベル付きフレーム上でのトラッキングネットワークの学習に半教師付き学習アルゴリズムを用いる。
論文 参考訳(メタデータ) (2022-05-05T00:18:57Z) - Correlation-Aware Deep Tracking [83.51092789908677]
本稿では,自己/横断的意図に着想を得た,新たなターゲット依存型特徴ネットワークを提案する。
我々のネットワークは機能ネットワークの複数の層にクロスイメージの特徴相関を深く埋め込んでいる。
我々のモデルは、豊富な未ペア画像に対して柔軟に事前訓練が可能であり、既存の手法よりも顕著に高速な収束をもたらす。
論文 参考訳(メタデータ) (2022-03-03T11:53:54Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Coarse-to-Fine Object Tracking Using Deep Features and Correlation
Filters [2.3526458707956643]
本稿では,新しいディープラーニング追跡アルゴリズムを提案する。
対象の翻訳を大まかに推定するために,深層特徴の一般化能力を利用する。
そして,相関フィルタの識別力を利用して追跡対象を正確に局所化する。
論文 参考訳(メタデータ) (2020-12-23T16:43:21Z) - Learning to associate detections for real-time multiple object tracking [0.0]
本研究では, ニューラルネットワークを用いて, 検出に使用可能な類似性関数を学習する。
提案したトラッカーは最先端の手法で得られた結果と一致し、ベースラインとして使用される最近の類似手法よりも58%高速に動作している。
論文 参考訳(メタデータ) (2020-07-12T17:08:41Z) - Object Tracking through Residual and Dense LSTMs [67.98948222599849]
LSTM(Long Short-Term Memory)リカレントニューラルネットワークに基づくディープラーニングベースのトラッカーが、強力な代替手段として登場した。
DenseLSTMはResidualおよびRegular LSTMより優れ、ニュアンセに対する高いレジリエンスを提供する。
ケーススタディは、他のトラッカーの堅牢性を高めるために残差ベースRNNの採用を支援する。
論文 参考訳(メタデータ) (2020-06-22T08:20:17Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z) - Depthwise Non-local Module for Fast Salient Object Detection Using a
Single Thread [136.2224792151324]
本稿では,高速な物体検出のための新しいディープラーニングアルゴリズムを提案する。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
論文 参考訳(メタデータ) (2020-01-22T15:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。