論文の概要: Learning Mobile CNN Feature Extraction Toward Fast Computation of Visual
Object Tracking
- arxiv url: http://arxiv.org/abs/2104.01381v1
- Date: Sat, 3 Apr 2021 11:49:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 14:48:03.438971
- Title: Learning Mobile CNN Feature Extraction Toward Fast Computation of Visual
Object Tracking
- Title(参考訳): ビジュアルオブジェクト追跡の高速化を目指したモバイルCNN特徴抽出学習
- Authors: Tsubasa Murate, Takashi Watanabe, Masaki Yamada
- Abstract要約: 訓練されたCNNを用いて,軽量で高精度で高速な物体追跡を行う。
提案手法は,低資源環境においても高精度かつ高速に計算を行うことができる。
- 参考スコア(独自算出の注目度): 6.0653144230649865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we construct a lightweight, high-precision and high-speed
object tracking using a trained CNN. Conventional methods with trained CNNs use
VGG16 network which requires powerful computational resources. Therefore, there
is a problem that it is difficult to apply in low computation resources
environments. To solve this problem, we use MobileNetV3, which is a CNN for
mobile terminals.Based on Feature Map Selection Tracking, we propose a new
architecture that extracts effective features of MobileNet for object tracking.
The architecture requires no online learning but only offline learning. In
addition, by using features of objects other than tracking target, the features
of tracking target are extracted more efficiently. We measure the tracking
accuracy with Visual Tracker Benchmark and confirm that the proposed method can
perform high-precision and high-speed calculation even in low computation
resource environments.
- Abstract(参考訳): 本稿では,訓練されたCNNを用いて,軽量で高精度で高速な物体追跡を行う。
訓練されたCNNを使った従来の方法は、強力な計算資源を必要とするVGG16ネットワークを使用する。
したがって、低計算資源環境では適用が難しいという問題がある。
この問題を解決するために,モバイル端末用CNNであるMobileNetV3を用い,特徴マップ選択追跡に基づいて,オブジェクト追跡に有効なMobileNetの特徴を抽出するアーキテクチャを提案する。
オンライン学習は必要ありませんが、オフライン学習のみです。
また、追跡対象以外の対象物の特徴を用いて、追跡対象物の特徴をより効率的に抽出する。
追従精度をVisual Tracker Benchmarkで測定し,提案手法が低計算資源環境においても高精度かつ高速に計算できることを確認する。
関連論文リスト
- Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - PNAS-MOT: Multi-Modal Object Tracking with Pareto Neural Architecture Search [64.28335667655129]
複数の物体追跡は、自律運転において重要な課題である。
トラッキングの精度が向上するにつれて、ニューラルネットワークはますます複雑になり、レイテンシが高いため、実際の運転シナリオにおける実践的な応用に課題が生じる。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法を用いて追跡のための効率的なアーキテクチャを探索し,比較的高い精度を維持しつつ,低リアルタイム遅延を実現することを目的とした。
論文 参考訳(メタデータ) (2024-03-23T04:18:49Z) - Transferability of Convolutional Neural Networks in Stationary Learning
Tasks [96.00428692404354]
本稿では,大規模な空間問題に対する畳み込みニューラルネットワーク(CNN)の効率的なトレーニングのための新しいフレームワークを提案する。
このような信号の小さなウィンドウで訓練されたCNNは、再学習することなく、はるかに大きなウィンドウでほぼ性能を発揮することを示す。
以上の結果から,CNNは10人未満の訓練を受けた後,数百人のエージェントによる問題に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T13:51:45Z) - An Acceleration Method Based on Deep Learning and Multilinear Feature
Space [0.0]
本稿では,大規模CNNアーキテクチャからの学習を伝達するために,Multilinear Feature Space (MFS)法に基づく代替手法を提案する。
提案手法はCNNを用いて特徴マップを生成するが,複雑性低減手法として機能しない。
AMFCと呼ばれる本手法では,事前学習したCNNからの移動学習を用いて,新しいサンプル画像の分類時間を最小限に抑える。
論文 参考訳(メタデータ) (2021-10-16T23:49:12Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - Faster and Simpler Siamese Network for Single Object Tracking [9.365739363728983]
シングルオブジェクトトラッキング(SOT)はコンピュータビジョンにおいて最も重要なタスクの1つである。
Siameseネットワークが提案され、従来の方法よりも優れたパフォーマンスを発揮しています。
これらのメソッドのほとんどは、理想的な環境でのリアルタイムオブジェクトトラッキングのニーズにしか応えられなかった。
論文 参考訳(メタデータ) (2021-05-07T03:37:19Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - A Framework for Fast Scalable BNN Inference using Googlenet and Transfer
Learning [0.0]
本論文は、リアルタイム性能の良い物体検出の高精度化を目指します。
バイナライズニューラルネットワークは、画像分類、オブジェクト検出、セマンティックセグメンテーションなど、さまざまな視覚タスクで高いパフォーマンスを発揮しています。
その結果,移動学習法により検出された物体の精度は,既存手法と比較して高いことがわかった。
論文 参考訳(メタデータ) (2021-01-04T06:16:52Z) - Coarse-to-Fine Object Tracking Using Deep Features and Correlation
Filters [2.3526458707956643]
本稿では,新しいディープラーニング追跡アルゴリズムを提案する。
対象の翻訳を大まかに推定するために,深層特徴の一般化能力を利用する。
そして,相関フィルタの識別力を利用して追跡対象を正確に局所化する。
論文 参考訳(メタデータ) (2020-12-23T16:43:21Z) - RT3D: Achieving Real-Time Execution of 3D Convolutional Neural Networks
on Mobile Devices [57.877112704841366]
本稿では3次元CNNのためのモデル圧縮およびモバイルアクセラレーションフレームワークRT3Dを提案する。
3D CNNのリアルタイム実行は、市販のモバイル上で初めて実現された。
論文 参考訳(メタデータ) (2020-07-20T02:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。