論文の概要: Source-free Domain Adaptation for Video Object Detection Under Adverse Image Conditions
- arxiv url: http://arxiv.org/abs/2404.15252v1
- Date: Tue, 23 Apr 2024 17:39:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 13:03:00.266031
- Title: Source-free Domain Adaptation for Video Object Detection Under Adverse Image Conditions
- Title(参考訳): 逆画像条件下での映像オブジェクト検出のためのソースフリー領域適応
- Authors: Xingguang Zhang, Chih-Hsien Chou,
- Abstract要約: トレーニング済みのビデオオブジェクト検出器を現実のシナリオにデプロイする場合、トレーニングとテストデータのドメインギャップは、しばしばパフォーマンスの低下につながる。
ビデオオブジェクト検出(VOD)のためのシンプルで効果的なソースフリードメイン適応法(SFDA)を提案する。
具体的には,1段VOD法であるYOLOVの性能を,騒音,空気乱流,迷路などの画像条件下で改善することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When deploying pre-trained video object detectors in real-world scenarios, the domain gap between training and testing data caused by adverse image conditions often leads to performance degradation. Addressing this issue becomes particularly challenging when only the pre-trained model and degraded videos are available. Although various source-free domain adaptation (SFDA) methods have been proposed for single-frame object detectors, SFDA for video object detection (VOD) remains unexplored. Moreover, most unsupervised domain adaptation works for object detection rely on two-stage detectors, while SFDA for one-stage detectors, which are more vulnerable to fine-tuning, is not well addressed in the literature. In this paper, we propose Spatial-Temporal Alternate Refinement with Mean Teacher (STAR-MT), a simple yet effective SFDA method for VOD. Specifically, we aim to improve the performance of the one-stage VOD method, YOLOV, under adverse image conditions, including noise, air turbulence, and haze. Extensive experiments on the ImageNetVOD dataset and its degraded versions demonstrate that our method consistently improves video object detection performance in challenging imaging conditions, showcasing its potential for real-world applications.
- Abstract(参考訳): 実世界のシナリオで事前訓練されたビデオオブジェクト検出装置をデプロイする場合、悪い画像条件によって引き起こされるトレーニングデータとテストデータの間の領域ギャップは、しばしば性能劣化を引き起こす。
この問題に対処することは、事前訓練されたモデルと劣化したビデオのみが利用できる場合、特に困難になる。
ソースフリードメイン適応法 (SFDA) は, 単一フレームオブジェクト検出法として提案されているが, ビデオオブジェクト検出法 (VOD) については未検討である。
さらに、オブジェクト検出のための殆どの教師なしドメイン適応は2段階検出器に依存し、一方1段階検出器のFDAは微調整に弱いが、文献ではうまく対応していない。
本稿では,VODの簡易かつ効果的なSFDA法であるSTAR-MT(Spatial-Temporal Alternate Refinement with Mean Teacher)を提案する。
具体的には,1段VOD法であるYOLOVの性能を,騒音,空気乱流,迷路などの画像条件下で改善することを目的としている。
画像NetVODデータセットとその劣化したバージョンに対する大規模な実験により,本手法は撮影環境に挑戦する際の映像オブジェクト検出性能を常に向上し,実世界の応用の可能性を示している。
関連論文リスト
- Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - Source-free Domain Adaptive Object Detection in Remote Sensing Images [11.19538606490404]
本研究では,RS画像のソースフリーオブジェクト検出(SFOD)設定を提案する。
これは、ソース事前学習モデルのみを使用してターゲットドメイン適応を実行することを目的としている。
本手法では,ソース領域RS画像へのアクセスは不要である。
論文 参考訳(メタデータ) (2024-01-31T15:32:44Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - Object Detection in Aerial Images in Scarce Data Regimes [0.0]
小さな物体は、より多数の空中画像において、自然画像と空中画像の間の明らかなパフォーマンスギャップの原因となっている。
FSOD法の訓練と評価を改善するスケール適応型ボックス類似度基準を提案する。
また、計量学習と微調整に基づく2つの異なるアプローチによる汎用FSODにも貢献する。
論文 参考訳(メタデータ) (2023-10-16T14:16:47Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - SF-FSDA: Source-Free Few-Shot Domain Adaptive Object Detection with
Efficient Labeled Data Factory [94.11898696478683]
ドメイン適応オブジェクト検出は、ラベル付きソースドメインから学んだ知識を活用し、ラベルなしのターゲットドメインのパフォーマンスを改善することを目的としています。
本研究では,SF-FSDA という名称のソースフリーおよび少数ショット条件下で,より実用的で困難な領域適応型オブジェクト検出問題を提案し,検討する。
論文 参考訳(メタデータ) (2023-06-07T12:34:55Z) - AWADA: Attention-Weighted Adversarial Domain Adaptation for Object
Detection [0.0]
AWADA(Atention-Weighted Adrialversa Domain Adaptation)は、スタイル変換と検出タスクの間のフィードバックループを作成するためのフレームワークである。
我々は,AWADAが,合成・現実・悪天候・クロスカメラ適応等のタスクによく使用されるベンチマークにおいて,最先端の教師なし領域適応オブジェクト検出性能に達することを示す。
論文 参考訳(メタデータ) (2022-08-31T07:20:25Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。