論文の概要: Unsupervised Domain Adaptation for Nighttime Aerial Tracking
- arxiv url: http://arxiv.org/abs/2203.10541v1
- Date: Sun, 20 Mar 2022 12:35:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 16:51:10.896321
- Title: Unsupervised Domain Adaptation for Nighttime Aerial Tracking
- Title(参考訳): 夜間空中追跡のための教師なし領域適応
- Authors: Junjie Ye, Changhong Fu, Guangze Zheng, Danda Pani Paudel, Guang Chen
- Abstract要約: 本研究は、夜間航空追跡のための新しい教師なしドメイン適応フレームワークを開発する。
ユニークなオブジェクト発見アプローチが提供され、生の夜間追跡ビデオからトレーニングパッチを生成する。
Transformerの昼夜の特徴判別器では、昼夜追跡モデルは夜間追跡のために逆向きに訓練される。
- 参考スコア(独自算出の注目度): 27.595253191781904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous advances in object tracking mostly reported on favorable
illumination circumstances while neglecting performance at nighttime, which
significantly impeded the development of related aerial robot applications.
This work instead develops a novel unsupervised domain adaptation framework for
nighttime aerial tracking (named UDAT). Specifically, a unique object discovery
approach is provided to generate training patches from raw nighttime tracking
videos. To tackle the domain discrepancy, we employ a Transformer-based
bridging layer post to the feature extractor to align image features from both
domains. With a Transformer day/night feature discriminator, the daytime
tracking model is adversarially trained to track at night. Moreover, we
construct a pioneering benchmark namely NAT2021 for unsupervised domain
adaptive nighttime tracking, which comprises a test set of 180 manually
annotated tracking sequences and a train set of over 276k unlabelled nighttime
tracking frames. Exhaustive experiments demonstrate the robustness and domain
adaptability of the proposed framework in nighttime aerial tracking. The code
and benchmark are available at https://github.com/vision4robotics/UDAT.
- Abstract(参考訳): 物体追跡のこれまでの進歩は、夜間における性能を無視しながら、照明の良好な状況について報告されていた。
この研究は、夜間航空追跡(UDAT)のための新しい教師なしドメイン適応フレームワークを開発する。
具体的には、夜間追跡ビデオからトレーニングパッチを生成するために、ユニークなオブジェクト発見アプローチが提供される。
ドメインの不一致に対処するために,特徴抽出器にトランスフォーマティブベースのブリッジング層を配置し,両領域の画像特徴を整合させる。
Transformerの昼夜の特徴判別器では、昼夜追跡モデルは夜間追跡のために逆向きに訓練される。
さらに,非教師なし領域適応型夜間追跡のための先駆的ベンチマークであるnat2021を構築し,180個の手動アノテーション付き夜間追跡シーケンスと276k以上の非ラベル夜間追跡フレームからなるテストセットを構築した。
夜間の航空追跡におけるフレームワークの堅牢性とドメイン適応性の実証実験を行った。
コードとベンチマークはhttps://github.com/vision4robotics/UDATで公開されている。
関連論文リスト
- DaDiff: Domain-aware Diffusion Model for Nighttime UAV Tracking [21.255323355862057]
本研究はドメイン認識拡散モデル(DaDiff)という,新しいプログレッシブアライメントパラダイムを提案する。
デイディフは、進行性および安定な世代により、夜間LRオブジェクトを昼間に整列させる。
100個のアノテートシーケンスからなるLRオブジェクトに対して、詳細な夜間UAV追跡ベンチマークを構築する。
論文 参考訳(メタデータ) (2024-10-16T06:14:15Z) - Prompt-Driven Temporal Domain Adaptation for Nighttime UAV Tracking [21.09039345888337]
低照度シナリオ下での夜間UAV追跡は、ドメイン適応(DA)によって大きな進歩を遂げた。
従来のDAトレーニングに基づく研究は、UAVトラッカーの時間的文脈の相違を狭めるには不十分である。
本研究は、夜間UAV追跡に挑戦する時間的コンテキストをフル活用するための、プロンプト駆動型時間的ドメイン適応トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-27T08:12:28Z) - Exploring Reliable Matching with Phase Enhancement for Night-time Semantic Segmentation [58.180226179087086]
夜間セマンティックセマンティックセグメンテーションに適した新しいエンドツーエンド最適化手法であるNightFormerを提案する。
具体的には,画素レベルのテクスチャ・エンハンスメント・モジュールを設計し,フェーズ・エンハンスメントとアンプリメント・アテンションとともに階層的にテクスチャ・アウェア機能を取得する。
提案手法は、最先端の夜間セマンティックセグメンテーション手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2024-08-25T13:59:31Z) - DCPT: Darkness Clue-Prompted Tracking in Nighttime UAVs [53.64523622330297]
既存の夜間無人航空機(UAV)トラッカーは"Enhance-then-Track"アーキテクチャに従っている。
この分離された拡張と追跡は、エンドツーエンドのトレーニング可能な視覚システムを構築するのに失敗する。
本研究では,夜間の強靭なUAV追跡を効率よく学習し,暗黒手がかりを生成できるDarkness Clue-Prompted Tracking (DCPT)を提案する。
論文 参考訳(メタデータ) (2023-09-19T09:59:08Z) - Disentangled Contrastive Image Translation for Nighttime Surveillance [87.03178320662592]
夜間監視は、照明の悪さと厳しい人間のアノテーションによる劣化に悩まされる。
既存の手法では、暗黒の物体を知覚するためにマルチスペクトル画像が使われており、解像度の低さと色の不在に悩まされている。
夜間監視の究極の解決策は、夜から昼までの翻訳(Night2Day)である、と私たちは主張する。
本論文は、夜間監視研究を支援する6つのシーンを含む、NightSuRと呼ばれる新しい監視データセットに貢献する。
論文 参考訳(メタデータ) (2023-07-11T06:40:27Z) - Tracker Meets Night: A Transformer Enhancer for UAV Tracking [20.74868878876137]
空間チャネルトランスを用いた低照度エンハンサが提案され, 追従手法に先立って接続される。
高レベルタスクを対象としたセマンティックレベルの低照度化を実現するために,新しい空間チャネルアテンションモジュールを提案する。
エンハンスメント工程では、SCTは夜間画像を同時にデノイズし、照明する。
論文 参考訳(メタデータ) (2023-03-20T09:18:52Z) - AVisT: A Benchmark for Visual Object Tracking in Adverse Visibility [125.77396380698639]
AVisTは、視認性の悪いさまざまなシナリオにおける視覚的トラッキングのためのベンチマークである。
AVisTは、80kの注釈付きフレームを持つ120の挑戦的なシーケンスで構成されており、18の多様なシナリオにまたがっている。
我々は、属性間でのトラッキング性能を詳細に分析し、AVisTで17の人気のトラッカーと最近のトラッカーをベンチマークした。
論文 参考訳(メタデータ) (2022-08-14T17:49:37Z) - Unsupervised Learning of Accurate Siamese Tracking [68.58171095173056]
分類枝と回帰枝の両方で時間対応を学習できる新しい教師なし追跡フレームワークを提案する。
トラッカーは、トラッカーネットやLaSOTのような大規模データセット上で、教師なしの手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2022-04-04T13:39:43Z) - Let There be Light: Improved Traffic Surveillance via Detail Preserving
Night-to-Day Transfer [19.33490492872067]
画像翻訳手法を用いて,物体検出時の精度低下を悪条件に緩和する枠組みを提案する。
本稿では,GAN(Generative Adversarial Networks)による詳細な汚職を緩和するために,Kernel Prediction Network (KPN) を用いた夜間・昼間の画像翻訳の改良手法を提案する。
論文 参考訳(メタデータ) (2021-05-11T13:18:50Z) - Robust Object Detection via Instance-Level Temporal Cycle Confusion [89.1027433760578]
物体検出器の分布外一般化を改善するための補助的自己監視タスクの有効性を検討する。
最大エントロピーの原理に触発されて,新しい自己監督タスクであるインスタンスレベル時間サイクル混乱(cycconf)を導入する。
それぞれのオブジェクトに対して、タスクは、ビデオ内の隣接するフレームで最も異なるオブジェクトの提案を見つけ、自己スーパービジョンのために自分自身にサイクルバックすることです。
論文 参考訳(メタデータ) (2021-04-16T21:35:08Z) - All-Day Object Tracking for Unmanned Aerial Vehicle [19.10142725484355]
本研究は,照明適応とアンチダーク機能を備えた新しい相関フィルタベースのトラッカー,adtrackを提案する。
ADTrackは画像照度情報を利用して、与えられた光条件へのモデルの適応性を実現する。
この作業はまた、UAVの夜間追跡ベンチマークであるUAVDark135を構築し、125k以上の手動アノテートフレームで構成された。
論文 参考訳(メタデータ) (2021-01-21T05:12:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。