論文の概要: FasterVideo: Efficient Online Joint Object Detection And Tracking
- arxiv url: http://arxiv.org/abs/2204.07394v1
- Date: Fri, 15 Apr 2022 09:25:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-18 11:52:40.519180
- Title: FasterVideo: Efficient Online Joint Object Detection And Tracking
- Title(参考訳): FasterVideo:効率的なオンライン共同物体検出と追跡
- Authors: Issa Mouawad, Francesca Odone
- Abstract要約: 我々は、画像オブジェクト検出において最も成功した方法の一つである、Faster R-CNNを再考し、それをビデオ領域に拡張する。
提案手法は,関連アプリケーションに必要な計算効率が非常に高い。
- 参考スコア(独自算出の注目度): 0.8680676599607126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object detection and tracking in videos represent essential and
computationally demanding building blocks for current and future visual
perception systems. In order to reduce the efficiency gap between available
methods and computational requirements of real-world applications, we propose
to re-think one of the most successful methods for image object detection,
Faster R-CNN, and extend it to the video domain. Specifically, we extend the
detection framework to learn instance-level embeddings which prove beneficial
for data association and re-identification purposes. Focusing on the
computational aspects of detection and tracking, our proposed method reaches a
very high computational efficiency necessary for relevant applications, while
still managing to compete with recent and state-of-the-art methods as shown in
the experiments we conduct on standard object tracking benchmarks
- Abstract(参考訳): ビデオにおける物体の検出と追跡は、現在および将来の視覚認識システムにとって必須かつ計算的に要求されるビルディングブロックである。
実世界のアプリケーションで利用可能な方法と計算要求との効率ギャップを低減するため,画像オブジェクト検出において最も成功した手法である高速R-CNNの1つを再考し,それをビデオ領域に拡張することを提案する。
具体的には、検出フレームワークを拡張して、データアソシエーションや再識別の目的に役立つインスタンスレベルの埋め込みを学習します。
提案手法は, 検出・追跡の計算面に着目し, 関連するアプリケーションに必要な計算効率が非常に高く, 標準オブジェクト追跡ベンチマークで行った実験で示されるように, 最新かつ最先端の手法と競合し続けている。
関連論文リスト
- VOVTrack: Exploring the Potentiality in Videos for Open-Vocabulary Object Tracking [61.56592503861093]
オープンボキャブラリオブジェクト検出(OVD)とマルチオブジェクトトラッキング(MOT)の複雑さを両立させる。
OVMOT の既存のアプローチは、OVD と MOT の方法論を別個のモジュールとして統合することが多く、主に画像中心のレンズによる問題に焦点を当てている。
VOVTrackは、MOTとビデオ中心トレーニングに関連するオブジェクト状態を統合する新しい手法であり、ビデオオブジェクト追跡の観点からこの問題に対処する。
論文 参考訳(メタデータ) (2024-10-11T05:01:49Z) - A novel efficient Multi-view traffic-related object detection framework [17.50049841016045]
我々は,多視点ビデオデータを用いた効率的な物体検出を実現するために,CEVASという新しいトラフィック関連フレームワークを提案する。
その結果,本フレームワークは,最先端手法と同じ検出精度を達成しつつ,応答遅延を著しく低減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T06:42:37Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Ensembling object detectors for image and video data analysis [98.26061123111647]
本稿では,複数の物体検出器の出力をアンサンブルすることで,画像データ上の境界ボックスの検出性能と精度を向上させる手法を提案する。
本研究では,2段階追跡に基づく検出精度向上手法を提案することで,映像データに拡張する。
論文 参考訳(メタデータ) (2021-02-09T12:38:16Z) - Online Descriptor Enhancement via Self-Labelling Triplets for Visual
Data Association [28.03285334702022]
オブジェクトレベルの視覚データアソシエーションのタスクにおいて,視覚記述子を漸進的に精製する自己教師型手法を提案する。
本手法は,ドメインに依存しないデータで事前学習した画像分類ネットワークを継続的にトレーニングすることにより,オンラインのディープディスクリプタジェネレータを最適化する。
提案手法はトラッキング・バイ・ディテクト・タスクに適用された他の視覚的データ・アソシエーション手法を超越し,観測情報に適応しようとする他の手法と比較して,優れた性能向上を提供することを示す。
論文 参考訳(メタデータ) (2020-11-06T17:42:04Z) - Robust and efficient post-processing for video object detection [9.669942356088377]
この研究は、従来の後処理メソッドの制限を克服する、新しい後処理パイプラインを導入している。
本手法は,特に高速移動物体に関する最先端の映像検出器の結果を改善する。
そして、YOLOのような効率的な静止画像検出器に適用することで、より計算集約的な検出器に匹敵する結果が得られる。
論文 参考訳(メタデータ) (2020-09-23T10:47:24Z) - Building Robust Industrial Applicable Object Detection Models Using
Transfer Learning and Single Pass Deep Learning Architectures [1.1816942730023883]
我々は、オブジェクト検出のタスク専用の深層畳み込みニューラルネットワークが、産業指向のオブジェクト検出パイプラインをどのように改善するかを探求する。
地域提案や分類,確率推定をひとつの実行で統合したディープラーニングアーキテクチャを用いて,リアルタイムのパフォーマンス向上を目指す。
本稿では,これらのアルゴリズムを2つの産業関連アプリケーションに適用し,その1つはアイトラッキングデータにおけるプロモーションボードの検出と,もう1つは拡張現実広告のための倉庫製品のパッケージの検出と認識である。
論文 参考訳(メタデータ) (2020-07-09T09:50:45Z) - Efficient and accurate object detection with simultaneous classification
and tracking [1.4620086904601473]
本稿では,ポイントストリーム内の同時分類と追跡に基づく検出フレームワークを提案する。
このフレームワークでは、トラッカーが点雲のシーケンスでデータアソシエーションを行い、冗長な処理を避けるために検出器を誘導する。
ベンチマーク・データセットを用いて実験を行い,提案手法が従来のトラッキング・バイ・ディテクト・アプローチより優れていることを示した。
論文 参考訳(メタデータ) (2020-07-04T10:22:33Z) - Self-supervised Video Object Segmentation [76.83567326586162]
本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
論文 参考訳(メタデータ) (2020-06-22T17:55:59Z) - AutoOD: Automated Outlier Detection via Curiosity-guided Search and
Self-imitation Learning [72.99415402575886]
外乱検出は重要なデータマイニングの課題であり、多くの実用的応用がある。
本稿では,最適なニューラルネットワークモデルを探すことを目的とした自動外乱検出フレームワークであるAutoODを提案する。
さまざまな実世界のベンチマークデータセットに対する実験結果から、AutoODが特定したディープモデルが最高のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-06-19T18:57:51Z) - Depthwise Non-local Module for Fast Salient Object Detection Using a
Single Thread [136.2224792151324]
本稿では,高速な物体検出のための新しいディープラーニングアルゴリズムを提案する。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
論文 参考訳(メタデータ) (2020-01-22T15:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。