論文の概要: UMDATrack: Unified Multi-Domain Adaptive Tracking Under Adverse Weather Conditions
- arxiv url: http://arxiv.org/abs/2507.00648v1
- Date: Tue, 01 Jul 2025 10:43:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.580101
- Title: UMDATrack: Unified Multi-Domain Adaptive Tracking Under Adverse Weather Conditions
- Title(参考訳): UMDATrack: 逆気象条件下でのマルチドメイン適応トラッキング
- Authors: Siyuan Yao, Rui Zhu, Ziqi Wang, Wenqi Ren, Yanyang Yan, Xiaochun Cao,
- Abstract要約: 各種の悪天候条件下での高品質な目標状態予測を行うUMDATrackを提案する。
私たちのコードはhttps://github.com/Z-Z188/UMDATrack.comから入手可能です。
- 参考スコア(独自算出の注目度): 73.71632291123008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual object tracking has gained promising progress in past decades. Most of the existing approaches focus on learning target representation in well-conditioned daytime data, while for the unconstrained real-world scenarios with adverse weather conditions, e.g. nighttime or foggy environment, the tremendous domain shift leads to significant performance degradation. In this paper, we propose UMDATrack, which is capable of maintaining high-quality target state prediction under various adverse weather conditions within a unified domain adaptation framework. Specifically, we first use a controllable scenario generator to synthesize a small amount of unlabeled videos (less than 2% frames in source daytime datasets) in multiple weather conditions under the guidance of different text prompts. Afterwards, we design a simple yet effective domain-customized adapter (DCA), allowing the target objects' representation to rapidly adapt to various weather conditions without redundant model updating. Furthermore, to enhance the localization consistency between source and target domains, we propose a target-aware confidence alignment module (TCA) following optimal transport theorem. Extensive experiments demonstrate that UMDATrack can surpass existing advanced visual trackers and lead new state-of-the-art performance by a significant margin. Our code is available at https://github.com/Z-Z188/UMDATrack.
- Abstract(参考訳): ビジュアルオブジェクト追跡は、過去数十年で有望な進歩を遂げた。
既存のアプローチのほとんどは、よく調和した昼間データにおける目標表現の学習に重点を置いているが、夜間や霧環境などの悪天候を伴う制約のない現実のシナリオでは、ドメインシフトが著しくパフォーマンスが低下する。
本稿では,統一ドメイン適応フレームワークにおいて,種々の悪天候条件下で高品質な目標状態予測を維持可能なUMDATrackを提案する。
具体的には、まず制御可能なシナリオジェネレータを使用して、異なるテキストプロンプトの指導の下で、複数の気象条件下で、少量のラベル付きビデオ(ソースデイタイムデータセットの2%フレーム未満)を合成する。
その後、我々は、単純だが効果的なドメインカストマイズドアダプタ(DCA)を設計し、冗長なモデル更新をすることなく、ターゲットオブジェクトの表現を様々な気象条件に迅速に適応させることができるようにした。
さらに、ソースドメインとターゲットドメイン間の局所的整合性を高めるために、最適輸送定理に従って、ターゲットアウェア・アライメントアライメント・アライメント・モジュール(TCA)を提案する。
UMDATrackは既存の高度なビジュアルトラッカーを超越し、最先端のパフォーマンスを著しく向上させることができる。
私たちのコードはhttps://github.com/Z-Z188/UMDATrack.comから入手可能です。
関連論文リスト
- Multi-Modality Driven LoRA for Adverse Condition Depth Estimation [61.525312117638116]
逆条件深さ推定のためのMulti-Modality Driven LoRA(MMD-LoRA)を提案する。
Prompt Driven Domain Alignment (PDDA) と Visual-Text Consistent Contrastive Learning (VTCCL) の2つのコアコンポーネントで構成されている。
nuScenesとOxford RobotCarデータセットの最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-12-28T14:23:58Z) - Exploiting Multimodal Spatial-temporal Patterns for Video Object Tracking [53.33637391723555]
本研究では,STTrack というマルチモーダル空間時間追跡手法を提案する。
従来のパラダイムとは対照的に,マルチモーダル時間情報を含むトークン列を連続的に生成する時間状態生成器(TSG)を導入している。
これらの時間情報トークンは、次の時刻におけるターゲットの局所化を誘導し、ビデオフレーム間の長距離コンテキスト関係を確立し、ターゲットの時間軌道を捕捉するために使用される。
論文 参考訳(メタデータ) (2024-12-20T09:10:17Z) - STCMOT: Spatio-Temporal Cohesion Learning for UAV-Based Multiple Object Tracking [13.269416985959404]
無人航空機(UAV)ビデオにおける複数物体追跡(MOT)は、コンピュータビジョンにおける多様な用途において重要である。
時空間結合型多目的追跡フレームワーク(STCMOT)を提案する。
歴史的埋め込み機能を用いて,ReIDの表現と検出機能を逐次的にモデル化する。
我々のフレームワークはMOTAとIDF1メトリクスで新しい最先端のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2024-09-17T14:34:18Z) - Cooperative Students: Navigating Unsupervised Domain Adaptation in Nighttime Object Detection [1.6624384368855527]
教師なし領域適応 (Unsupervised Domain Adaptation, UDA) は、厳密な条件下での物体検出において顕著な進歩を示した。
UDAのパフォーマンスは特に夜間の低可視性シナリオで低下する。
この問題に対処するため,textbfCooperative textbfStudents (textbfCoS) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-02T14:26:18Z) - ControlUDA: Controllable Diffusion-assisted Unsupervised Domain
Adaptation for Cross-Weather Semantic Segmentation [14.407346832155042]
ControlUDAは、悪天候下でのUDAセグメンテーションに適した拡散支援フレームワークである。
DMをチューニングするために、事前に訓練されたセグメンタからターゲットを前もって利用し、行方不明のターゲットドメインラベルを補償する。
UDAControlNetは、悪天候下での高忠実度データ生成をターゲットとした、条件付きマルチスケールおよび即時拡張ネットワークである。
論文 参考訳(メタデータ) (2024-02-09T14:48:20Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Towards Real-World Visual Tracking with Temporal Contexts [64.7981374129495]
時間的文脈を効率的に活用できる2段階フレームワーク(TCTrack)を提案する。
これに基づいて、現実世界の視覚的トラッキング、すなわちTCTrack++のためのより強力なバージョンを提案する。
特徴抽出のために,空間的特徴を高めるために注意に基づく時間適応的畳み込みを提案する。
類似性マップの改良のために,時間的知識を効率的に符号化する適応型時間的変換器を導入する。
論文 参考訳(メタデータ) (2023-08-20T17:59:40Z) - Domain Adaptive Object Detection for Autonomous Driving under Foggy
Weather [25.964194141706923]
本稿では,霧気候下での自律走行のための新しい領域適応型物体検出フレームワークを提案する。
本手法は画像レベルの適応とオブジェクトレベルの適応を両立させ,画像スタイルとオブジェクトの外観における領域差を低減させる。
評価実験の結果,提案手法の有効性と精度が示された。
論文 参考訳(メタデータ) (2022-10-27T05:09:10Z) - AVisT: A Benchmark for Visual Object Tracking in Adverse Visibility [125.77396380698639]
AVisTは、視認性の悪いさまざまなシナリオにおける視覚的トラッキングのためのベンチマークである。
AVisTは、80kの注釈付きフレームを持つ120の挑戦的なシーケンスで構成されており、18の多様なシナリオにまたがっている。
我々は、属性間でのトラッキング性能を詳細に分析し、AVisTで17の人気のトラッカーと最近のトラッカーをベンチマークした。
論文 参考訳(メタデータ) (2022-08-14T17:49:37Z) - An Unsupervised Domain Adaptive Approach for Multimodal 2D Object
Detection in Adverse Weather Conditions [5.217255784808035]
本稿では、ソースとターゲットドメイン間のドメインギャップを埋めるために、教師なしのドメイン適応フレームワークを提案する。
天候の歪みをシミュレートするデータ拡張方式を用いて、ドメインの混乱を増し、ソースデータへの過度な適合を防止する。
DENSEデータセットで行った実験は、我々の手法がドメインギャップを大幅に軽減できることを示している。
論文 参考訳(メタデータ) (2022-03-07T18:10:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。