論文の概要: Traffic Video Object Detection using Motion Prior
- arxiv url: http://arxiv.org/abs/2311.10092v1
- Date: Thu, 16 Nov 2023 18:59:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 13:16:15.364403
- Title: Traffic Video Object Detection using Motion Prior
- Title(参考訳): motion priorを用いたトラヒックビデオ物体検出
- Authors: Lihao Liu, Yanqi Cheng, Dongdong Chen, Jing He, Pietro Li\`o,
Carola-Bibiane Sch\"onlieb, Angelica I Aviles-Rivero
- Abstract要約: 本稿では,先行動作を利用した2つの革新的な手法を提案し,トラヒックビデオオブジェクト検出の性能を向上する。
まず、時間情報統合を導く前に動きを利用する新しい自己認識モジュールを導入する。
次に、擬似ラベリング機構を用いて、半教師付き設定のためのノイズの多い擬似ラベルを除去する。
- 参考スコア(独自算出の注目度): 16.63738085066699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic videos inherently differ from generic videos in their stationary
camera setup, thus providing a strong motion prior where objects often move in
a specific direction over a short time interval. Existing works predominantly
employ generic video object detection framework for traffic video object
detection, which yield certain advantages such as broad applicability and
robustness to diverse scenarios. However, they fail to harness the strength of
motion prior to enhance detection accuracy. In this work, we propose two
innovative methods to exploit the motion prior and boost the performance of
both fully-supervised and semi-supervised traffic video object detection.
Firstly, we introduce a new self-attention module that leverages the motion
prior to guide temporal information integration in the fully-supervised
setting. Secondly, we utilise the motion prior to develop a pseudo-labelling
mechanism to eliminate noisy pseudo labels for the semi-supervised setting.
Both of our motion-prior-centred methods consistently demonstrates superior
performance, outperforming existing state-of-the-art approaches by a margin of
2% in terms of mAP.
- Abstract(参考訳): トラフィックビデオは、静止カメラの設定における一般的なビデオと本質的に異なるため、オブジェクトが短い間隔で特定の方向に移動する前に強い動きを与える。
既存の作業は主に、トラフィックビデオオブジェクト検出のための一般的なビデオオブジェクト検出フレームワークを使用しており、多様なシナリオに対する広範な適用性やロバスト性など、ある種の利点をもたらす。
しかし、検出精度を高める前に動きの強さを利用することができない。
本研究では,全教師付きおよび半教師付トラヒック映像検出の性能を向上させるための2つの手法を提案する。
まず,完全教師付き設定において時間情報の統合を導く前に,動きを利用する自己認識モジュールを導入する。
次に,疑似ラベル機構の開発に先立って,半教師付き設定におけるノイズの少ない擬似ラベルを除去した。
どちらの動き優先法も常に優れた性能を示しており、既存の最先端手法よりもmAPのマージンが2%向上している。
関連論文リスト
- MotionAgent: Fine-grained Controllable Video Generation via Motion Field Agent [58.09607975296408]
テキスト誘導画像-映像生成のための微粒なモーション制御を実現するMotionAgentを提案する。
キーとなる技術は、テキストプロンプトの動作情報を明示的な運動場に変換するモーション・フィールド・エージェントである。
我々はVBenchのサブセットを構築し、テキストと生成されたビデオの動作情報のアライメントを評価する。
論文 参考訳(メタデータ) (2025-02-05T14:26:07Z) - MotionStone: Decoupled Motion Intensity Modulation with Diffusion Transformer for Image-to-Video Generation [55.238542326124545]
静止画像に画像間(I2V)生成を条件付け、動き強度を付加的な制御信号として最近強化した。
これらの動き認識モデルは多様な動きパターンを生成するために魅力的だが、そのようなモデルを野生の大規模ビデオでトレーニングするための信頼性の高い動き推定器は存在しない。
本稿では,映像中の物体とカメラのデカップリング運動強度を計測できる新しい動き推定器の課題に対処する。
論文 参考訳(メタデータ) (2024-12-08T08:12:37Z) - Trajectory Attention for Fine-grained Video Motion Control [20.998809534747767]
本稿では,細粒度カメラモーション制御のための画素トラジェクトリに沿って注目を行う新しい手法であるトラジェクトリ・アテンションを紹介する。
また,本手法は,第1フレーム誘導映像編集など,他の動画モーションコントロールタスクにも適用可能であることを示す。
論文 参考訳(メタデータ) (2024-11-28T18:59:51Z) - ETTrack: Enhanced Temporal Motion Predictor for Multi-Object Tracking [4.250337979548885]
時間的動き予測器であるETTrackを用いた動きに基づくMOT手法を提案する。
具体的には、動作予測器は、変換器モデルと時間畳み込みネットワーク(TCN)を統合して、短期および長期の動作パターンをキャプチャする。
本研究では,DanceTrackとSportsMOTの最先端トラッカーと比較して,ETTrackの競争性能が向上していることを示す。
論文 参考訳(メタデータ) (2024-05-24T17:51:33Z) - MotionZero:Exploiting Motion Priors for Zero-shot Text-to-Video
Generation [131.1446077627191]
ゼロショットのテキスト・トゥ・ビデオ合成は、ビデオなしでプロンプトに基づいてビデオを生成する。
本研究では,MotionZeroと命名されたプロンプト適応型・アンタングル型モーションコントロール戦略を提案する。
我々の戦略は、異なるオブジェクトの動きを正しく制御し、ゼロショットビデオ編集を含む多目的アプリケーションをサポートする。
論文 参考訳(メタデータ) (2023-11-28T09:38:45Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Learning Variational Motion Prior for Video-based Motion Capture [31.79649766268877]
ビデオに基づくモーションキャプチャーのための新しい変分動作先行学習手法(VMP)を提案する。
我々のフレームワークはフレームワイドポーズ推定における時間的ジッタリングと障害モードを効果的に削減できる。
公開データセットとインザワイルドビデオの両方を用いた実験により、我々のフレームワークの有効性と一般化能力が実証された。
論文 参考訳(メタデータ) (2022-10-27T02:45:48Z) - Treating Motion as Option to Reduce Motion Dependency in Unsupervised
Video Object Segmentation [5.231219025536678]
教師なしビデオオブジェクトセグメンテーション(VOS)は、画素レベルでの動画シーケンスにおいて最も顕著なオブジェクトを検出することを目的としている。
最先端のほとんどの手法では、光学フローマップから得られる動きの手がかりと外観の手がかりを活用して、背景に比べて顕著な物体が典型的に特徴的な動きを持つという特性を利用する。
論文 参考訳(メタデータ) (2022-09-04T18:05:52Z) - E^2TAD: An Energy-Efficient Tracking-based Action Detector [78.90585878925545]
本稿では,事前定義されたキーアクションを高精度かつ効率的にローカライズするためのトラッキングベースソリューションを提案する。
UAV-Video Track of 2021 Low-Power Computer Vision Challenge (LPCVC)で優勝した。
論文 参考訳(メタデータ) (2022-04-09T07:52:11Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。