論文の概要: Real-time Video Target Tracking Algorithm Utilizing Convolutional Neural Networks (CNN)
- arxiv url: http://arxiv.org/abs/2411.18314v1
- Date: Wed, 27 Nov 2024 13:10:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 15:26:29.942454
- Title: Real-time Video Target Tracking Algorithm Utilizing Convolutional Neural Networks (CNN)
- Title(参考訳): 畳み込みニューラルネットワーク(CNN)を用いたリアルタイムビデオターゲット追跡アルゴリズム
- Authors: Chaoyi Tan, Xiangtian Li, Xiaobo Wang, Zhen Qi, Ao Xiang,
- Abstract要約: 本稿では,ConvolutionalNeuralNetworks(CNN)に基づくリアルタイムビデオターゲット追跡アルゴリズムを実装した。
The proposedalgorithm exhibits highertrackingsuccessrates and lower failurerates than severaltrackingalgorithms。
- 参考スコア(独自算出の注目度): 4.374328816082717
- License:
- Abstract: Thispaperaimstoresearchandimplementa real-timevideotargettrackingalgorithmbasedon ConvolutionalNeuralNetworks(CNN),enhancingthe accuracyandrobustnessoftargettrackingincomplex scenarios.Addressingthelimitationsoftraditionaltracking algorithmsinhandlingissuessuchastargetocclusion,morphologicalchanges,andbackgroundinterference,our approachintegratestargetdetectionandtrackingstrategies.It continuouslyupdatesthetargetmodelthroughanonline learningmechanismtoadapttochangesinthetarget's appearance.Experimentalresultsdemonstratethat,when dealingwithsituationsinvolvingrapidmotion,partial occlusion,andcomplexbackgrounds,theproposedalgorithm exhibitshighertrackingsuccessratesandlowerfailurerates comparedtoseveralmainstreamtrackingalgorithms.This studysuccessfullyappliesCNNtoreal-timevideotarget tracking,improvingtheaccuracyandstabilityofthetracking algorithmwhilemaintaininghighprocessingspeeds,thus meetingthedemandsofreal-timeapplications.Thisalgorithm isexpectedtoprovidenewsolutionsfortargettrackingtasksin videosurveillanceandintelligenttransportationdomains.
- Abstract(参考訳): Thispaperaimstoresearchandimplementa real-time videotargettrackingalgorithmbasedon ConvolutionalNeuralNetworks(CNN)enhancing the accuracyandrobustnessoftartrackingincomplex scenarios.Addressingthelimitationsof Traditionaltracking Algorithminhandling Issuessuchastargetocclusion,morphologicalchanges,andbackgroundinterference,our approachintegratestargetdetectionandtrackingstrategies. It continuedupdatesthetargetmodelthroughanonline learningmechanismtoadapttochangesinthetarget's appearance.experimentalresultsdemonstrate that,when dealingsitusinginvolving involvive ocial occlusion,promotialcomposedsofthewardsandhandling Issuessuchssuchastargetocclusions,andbackgroundinterference,our approachintegratestargetdetectionandtrackingstrategies. it is continueddatesthetargetmodelthroughanon learningmechanismtoadapttochangesinthetarget's appearance.
関連論文リスト
- RE-POSE: Synergizing Reinforcement Learning-Based Partitioning and Offloading for Edge Object Detection [3.2805151494259563]
エッジデバイス上でのリアルタイムオブジェクト検出は、その限られた計算リソースと、ディープニューラルネットワーク(DNN)ベースの検出モデルの高要求により、大きな課題を呈している。
本稿では,リソース制約のあるエッジ環境における精度-遅延トレードオフを最適化するフレームワークであるRE-POSEを紹介する。
論文 参考訳(メタデータ) (2025-01-16T10:56:45Z) - CREST: An Efficient Conjointly-trained Spike-driven Framework for Event-based Object Detection Exploiting Spatiotemporal Dynamics [7.696109414724968]
スパイキングニューラルネットワーク(SNN)は、イベントベースのオブジェクト認識と検出を約束する。
既存のSNNフレームワークは、多くの場合、マルチスケールの時間的特徴を扱うことができず、データの冗長性が向上し、精度が低下する。
我々は、イベントベースのオブジェクト検出を利用するために、結合的にトレーニングされた新しいスパイク駆動フレームワークであるCRESTを提案する。
論文 参考訳(メタデータ) (2024-12-17T04:33:31Z) - Deep Learning and Hybrid Approaches for Dynamic Scene Analysis, Object Detection and Motion Tracking [0.0]
本研究の目的は,活動の検出に基づいて映像を小さなクリップに分割する,堅牢な映像監視システムを開発することである。
例えば、CCTVの映像を使って、人や泥棒の外観のような主要なイベントのみを記録し、ストレージを最適化し、デジタル検索がより簡単になる。
論文 参考訳(メタデータ) (2024-12-05T07:44:40Z) - PNAS-MOT: Multi-Modal Object Tracking with Pareto Neural Architecture Search [64.28335667655129]
複数の物体追跡は、自律運転において重要な課題である。
トラッキングの精度が向上するにつれて、ニューラルネットワークはますます複雑になり、レイテンシが高いため、実際の運転シナリオにおける実践的な応用に課題が生じる。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法を用いて追跡のための効率的なアーキテクチャを探索し,比較的高い精度を維持しつつ,低リアルタイム遅延を実現することを目的とした。
論文 参考訳(メタデータ) (2024-03-23T04:18:49Z) - Online Sequence Clustering Algorithm for Video Trajectory Analysis [1.4190701053683017]
動作パターンから学習したモデルを用いて物体の挙動をリアルタイムに解析する手法を提案する。
対象物軌道の内在的反復性は、行動モデルを自動的に構築するために使用される。
このスキームは、大量の算術演算を回避しつつ、リアルタイムなオンライン学習とモーションモデルの処理を行う。
論文 参考訳(メタデータ) (2023-05-15T07:57:55Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Video Annotation for Visual Tracking via Selection and Refinement [74.08109740917122]
ビデオシーケンスのバウンディングボックスアノテーションを容易にするための新しいフレームワークを提案する。
目標位置の時間的コヒーレンスを捉えることのできる時間的アセスメントネットワークを提案する。
また、選択したトラッキング結果をさらに強化するために、ビジュアルジオメトリ・リファインメント・ネットワークが設計されている。
論文 参考訳(メタデータ) (2021-08-09T05:56:47Z) - Deep Feature Tracker: A Novel Application for Deep Convolutional Neural
Networks [0.0]
本稿では,特徴を確実に追跡する方法を学習できる,新しい,統合されたディープラーニングベースのアプローチを提案する。
Deep-PTと呼ばれる提案ネットワークは、畳み込みニューラルネットワークの相互相関であるトラッカーネットワークで構成されている。
ネットワークは、特徴追跡データセットに特別なデータセットがないため、複数のデータセットを使用してトレーニングされている。
論文 参考訳(メタデータ) (2021-07-30T23:24:29Z) - Continuity-Discrimination Convolutional Neural Network for Visual Object
Tracking [150.51667609413312]
本稿では,視覚オブジェクト追跡のためのContinuity-Discrimination Convolutional Neural Network (CD-CNN) という新しいモデルを提案する。
この問題に対処するため、cd-cnnは時間的遅れの概念に基づいた時間的外観連続性をモデル化する。
不正確なターゲットの定位とドリフトを緩和するために,新しい概念 object-centroid を提案する。
論文 参考訳(メタデータ) (2021-04-18T06:35:03Z) - A Prospective Study on Sequence-Driven Temporal Sampling and Ego-Motion
Compensation for Action Recognition in the EPIC-Kitchens Dataset [68.8204255655161]
行動認識はコンピュータビジョンにおける最上位の研究分野の一つである。
エゴモーション記録シーケンスは重要な関連性を持つようになった。
提案手法は,このエゴモーションやカメラの動きを推定して対処することを目的としている。
論文 参考訳(メタデータ) (2020-08-26T14:44:45Z) - Depthwise Non-local Module for Fast Salient Object Detection Using a
Single Thread [136.2224792151324]
本稿では,高速な物体検出のための新しいディープラーニングアルゴリズムを提案する。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
論文 参考訳(メタデータ) (2020-01-22T15:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。