論文の概要: Traffic Video Object Detection using Motion Prior
- arxiv url: http://arxiv.org/abs/2311.10092v1
- Date: Thu, 16 Nov 2023 18:59:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 13:16:15.364403
- Title: Traffic Video Object Detection using Motion Prior
- Title(参考訳): motion priorを用いたトラヒックビデオ物体検出
- Authors: Lihao Liu, Yanqi Cheng, Dongdong Chen, Jing He, Pietro Li\`o,
Carola-Bibiane Sch\"onlieb, Angelica I Aviles-Rivero
- Abstract要約: 本稿では,先行動作を利用した2つの革新的な手法を提案し,トラヒックビデオオブジェクト検出の性能を向上する。
まず、時間情報統合を導く前に動きを利用する新しい自己認識モジュールを導入する。
次に、擬似ラベリング機構を用いて、半教師付き設定のためのノイズの多い擬似ラベルを除去する。
- 参考スコア(独自算出の注目度): 16.63738085066699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic videos inherently differ from generic videos in their stationary
camera setup, thus providing a strong motion prior where objects often move in
a specific direction over a short time interval. Existing works predominantly
employ generic video object detection framework for traffic video object
detection, which yield certain advantages such as broad applicability and
robustness to diverse scenarios. However, they fail to harness the strength of
motion prior to enhance detection accuracy. In this work, we propose two
innovative methods to exploit the motion prior and boost the performance of
both fully-supervised and semi-supervised traffic video object detection.
Firstly, we introduce a new self-attention module that leverages the motion
prior to guide temporal information integration in the fully-supervised
setting. Secondly, we utilise the motion prior to develop a pseudo-labelling
mechanism to eliminate noisy pseudo labels for the semi-supervised setting.
Both of our motion-prior-centred methods consistently demonstrates superior
performance, outperforming existing state-of-the-art approaches by a margin of
2% in terms of mAP.
- Abstract(参考訳): トラフィックビデオは、静止カメラの設定における一般的なビデオと本質的に異なるため、オブジェクトが短い間隔で特定の方向に移動する前に強い動きを与える。
既存の作業は主に、トラフィックビデオオブジェクト検出のための一般的なビデオオブジェクト検出フレームワークを使用しており、多様なシナリオに対する広範な適用性やロバスト性など、ある種の利点をもたらす。
しかし、検出精度を高める前に動きの強さを利用することができない。
本研究では,全教師付きおよび半教師付トラヒック映像検出の性能を向上させるための2つの手法を提案する。
まず,完全教師付き設定において時間情報の統合を導く前に,動きを利用する自己認識モジュールを導入する。
次に,疑似ラベル機構の開発に先立って,半教師付き設定におけるノイズの少ない擬似ラベルを除去した。
どちらの動き優先法も常に優れた性能を示しており、既存の最先端手法よりもmAPのマージンが2%向上している。
関連論文リスト
- ETTrack: Enhanced Temporal Motion Predictor for Multi-Object Tracking [4.250337979548885]
時間的動き予測器であるETTrackを用いた動きに基づくMOT手法を提案する。
具体的には、動作予測器は、変換器モデルと時間畳み込みネットワーク(TCN)を統合して、短期および長期の動作パターンをキャプチャする。
本研究では,DanceTrackとSportsMOTの最先端トラッカーと比較して,ETTrackの競争性能が向上していることを示す。
論文 参考訳(メタデータ) (2024-05-24T17:51:33Z) - MotionZero:Exploiting Motion Priors for Zero-shot Text-to-Video
Generation [131.1446077627191]
ゼロショットのテキスト・トゥ・ビデオ合成は、ビデオなしでプロンプトに基づいてビデオを生成する。
本研究では,MotionZeroと命名されたプロンプト適応型・アンタングル型モーションコントロール戦略を提案する。
我々の戦略は、異なるオブジェクトの動きを正しく制御し、ゼロショットビデオ編集を含む多目的アプリケーションをサポートする。
論文 参考訳(メタデータ) (2023-11-28T09:38:45Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Improving Unsupervised Video Object Segmentation with Motion-Appearance
Synergy [52.03068246508119]
IMASは、トレーニングや推論において手動のアノテーションを使わずに、主要オブジェクトをビデオに分割する手法である。
IMASはMotion-Appearance Synergyによる改良されたUVOSを実現する。
人間のアノテーションや手作りハイパーパラム特有のメトリクスで調整された重要なハイパーパラムのチューニングにおいて、その効果を実証する。
論文 参考訳(メタデータ) (2022-12-17T06:47:30Z) - Learning Variational Motion Prior for Video-based Motion Capture [31.79649766268877]
ビデオに基づくモーションキャプチャーのための新しい変分動作先行学習手法(VMP)を提案する。
我々のフレームワークはフレームワイドポーズ推定における時間的ジッタリングと障害モードを効果的に削減できる。
公開データセットとインザワイルドビデオの両方を用いた実験により、我々のフレームワークの有効性と一般化能力が実証された。
論文 参考訳(メタデータ) (2022-10-27T02:45:48Z) - Treating Motion as Option to Reduce Motion Dependency in Unsupervised
Video Object Segmentation [5.231219025536678]
教師なしビデオオブジェクトセグメンテーション(VOS)は、画素レベルでの動画シーケンスにおいて最も顕著なオブジェクトを検出することを目的としている。
最先端のほとんどの手法では、光学フローマップから得られる動きの手がかりと外観の手がかりを活用して、背景に比べて顕著な物体が典型的に特徴的な動きを持つという特性を利用する。
論文 参考訳(メタデータ) (2022-09-04T18:05:52Z) - E^2TAD: An Energy-Efficient Tracking-based Action Detector [78.90585878925545]
本稿では,事前定義されたキーアクションを高精度かつ効率的にローカライズするためのトラッキングベースソリューションを提案する。
UAV-Video Track of 2021 Low-Power Computer Vision Challenge (LPCVC)で優勝した。
論文 参考訳(メタデータ) (2022-04-09T07:52:11Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - Deep Motion Prior for Weakly-Supervised Temporal Action Localization [35.25323276744999]
Weakly-Supervised Temporal Action Localization (WSTAL) は、ビデオレベルのラベルだけで、未トリミングビデオ内のアクションをローカライズすることを目的としている。
現在、最先端のWSTALメソッドのほとんどは、Multi-Instance Learning (MIL)パイプラインに従っています。
既存の手法では,1)動作情報の不十分な使用,2)広汎なクロスエントロピートレーニング損失の相容れない2つの重要な欠点が指摘されている。
論文 参考訳(メタデータ) (2021-08-12T08:51:36Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。