論文の概要: Saliency Guided Image Warping for Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2403.12712v2
- Date: Wed, 31 Jul 2024 02:33:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-01 20:15:23.108118
- Title: Saliency Guided Image Warping for Unsupervised Domain Adaptation
- Title(参考訳): 教師なし領域適応のための親和性誘導画像ワープ
- Authors: Shen Zheng, Anurag Ghosh, Srinivasa G. Narasimhan,
- Abstract要約: 位置画像ワープを用いて、有能な対象領域に焦点を合わせることにより、UDAトレーニングを改善する。
我々は、オブジェクト領域を適応的にオーバーサンプリングするために、インスタンスレベルの正当性ガイダンスを設計する。
我々のアプローチは、地理、照明、気象条件の順応を改善します。
- 参考スコア(独自算出の注目度): 19.144094571994756
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Driving is challenging in conditions like night, rain, and snow. The lack of good labeled datasets has hampered progress in scene understanding under such conditions. Unsupervised domain adaptation (UDA) using large labeled clear-day datasets is a promising research direction in such cases. Current UDA methods, however, treat all image pixels uniformly, leading to over-reliance on the dominant scene backgrounds (e.g., roads, sky, sidewalks) that appear dramatically different across domains. As a result, they struggle to learn effective features of smaller and often sparse foreground objects (e.g., people, vehicles, signs). In this work, we improve UDA training by using in-place image warping to focus on salient object regions. Our insight is that while backgrounds vary significantly across domains (e.g., snowy night vs. clear day), object appearances vary to a lesser extent. Therefore, we design instance-level saliency guidance to adaptively oversample object regions, which reduces adverse effects from background context and enhances backbone feature learning. We then unwarp the better learned features while adapting from source to target. Our approach improves adaptation across geographies, lighting, and weather conditions, and is agnostic to the task (segmentation, detection), domain adaptation algorithm, saliency guidance, and underlying model architecture. Result highlights include +6.1 mAP50 for BDD100K Clear $\rightarrow$ DENSE Foggy, +3.7 mAP50 for BDD100K Day $\rightarrow$ Night, +3.0 mAP50 for BDD100K Clear $\rightarrow$ Rainy, and +6.3 mIoU for Cityscapes $\rightarrow$ ACDC. Our method adds minimal training memory and incurs no additional inference latency. Please see Appendix for more results and analysis.
- Abstract(参考訳): 夜間、雨、雪などでは運転が難しい。
良質なラベル付きデータセットの欠如は、そのような条件下でのシーン理解の進歩を妨げている。
大規模ラベル付き明日データセットを用いた教師なしドメイン適応(UDA)は、そのようなケースにおいて有望な研究方向である。
しかし、現在のUDA法では、すべての画像ピクセルを均一に処理し、ドメイン間で劇的に異なるシーン背景(道路、空、歩道など)に過度に依存する。
その結果、より小さく、しばしば疎い前景の物体(例えば、人、車、標識)の効果的な特徴を学ぶのに苦労した。
本研究は、位置画像ワープを用いて、有能な対象領域に焦点を合わせることにより、UDAトレーニングを改善するものである。
我々の洞察では、背景は領域によって大きく異なるが(例:雪の夜と晴れた日)、物体の外観はそれほど変化しない。
そこで我々は,背景環境からの悪影響を低減し,バックボーンの特徴学習を強化するため,オブジェクト領域を適応的にオーバーサンプリングするインスタンスレベルのサリエンシガイダンスを設計する。
そして、ソースからターゲットに適応しながら、より良い学習機能をアンウォープします。
提案手法は,地理,照明,気象条件の順応性を改善し,タスク(セグメンテーション,検出),ドメイン適応アルゴリズム,サリエンシガイダンス,基礎となるモデルアーキテクチャに依存しない。
結果のハイライトは、BDD100K Clear $\rightarrow$ DENSE Foggy, +3.7 mAP50 for BDD100K Day $\rightarrow$ Night, +3.0 mAP50 for BDD100K Clear $\rightarrow$ Rainy, +6.3 mooU for Cityscapes $\rightarrow$ ACDCである。
我々の方法は、最小限のトレーニングメモリを追加し、追加の推論遅延を発生させない。
さらなる結果と分析については、Appendixをご覧ください。
関連論文リスト
- Pseudolabel guided pixels contrast for domain adaptive semantic segmentation [0.9831489366502301]
セマンティックセグメンテーションのための教師なしドメイン適応(UDA)は、ラベル付き仮想データを使用してモデルをトレーニングし、ラベルなしで実際のデータに適応するテクニックである。
近年のいくつかの研究は、このテクニックを支援するために、自己教師付き学習の強力な方法であるコントラスト学習を使用している。
Pseudo-label Guided Pixel Contrast (PGPC) と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-15T03:25:25Z) - A-BDD: Leveraging Data Augmentations for Safe Autonomous Driving in Adverse Weather and Lighting [35.410769661423004]
A-BDDは、BDD100Kをベースとした6万以上の合成画像の大規模な集合である。
データセットには、雨、霧、曇り、日陰、日陰の増設データが含まれており、強度レベルは様々である。
我々は、悪天候や照明条件における性能ギャップを埋める上で、データ拡張が重要な役割を果たす証拠を提供する。
論文 参考訳(メタデータ) (2024-08-12T11:44:47Z) - RoScenes: A Large-scale Multi-view 3D Dataset for Roadside Perception [98.76525636842177]
RoScenesは、最大規模のマルチビューロードサイド認識データセットである。
私たちのデータセットは、驚くべき21.13Mの3Dアノテーションを64,000$m2$で達成しています。
論文 参考訳(メタデータ) (2024-05-16T08:06:52Z) - DTBS: Dual-Teacher Bi-directional Self-training for Domain Adaptation in
Nighttime Semantic Segmentation [1.7205106391379026]
夜間の状況は、自動運転車の認識システムにとって大きな課題となる。
非教師なし領域適応(UDA)は、そのような画像のセマンティックセグメンテーションに広く応用されている。
本研究では,スムーズな知識伝達とフィードバックのためのDTBS(Dual-Teacher Bi-directional Self-Tning)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-02T06:56:57Z) - T-UDA: Temporal Unsupervised Domain Adaptation in Sequential Point
Clouds [2.5291108878852864]
教師なしドメイン適応(UDA)メソッドは、1つの(ソース)ドメインでトレーニングされたモデルに、アノテーションが利用可能な他の(ターゲット)ドメインに適応する。
本稿では,両トレンドの長所を活かした新しい領域適応手法を提案する。この組み合わせにより,運転シーンの3次元セマンティックセマンティックセグメンテーションのタスクにおいて,大きなパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2023-09-15T10:47:12Z) - MIC: Masked Image Consistency for Context-Enhanced Domain Adaptation [104.40114562948428]
教師なしドメイン適応(UDA)では、ソースデータ(例えば、合成)に基づいて訓練されたモデルは、ターゲットアノテーションにアクセスすることなく、ターゲットデータ(例えば、現実世界)に適応する。
本研究では,対象領域の空間的コンテキスト関係を学習し,UDAを向上するMasked Image Consistency (MIC)モジュールを提案する。
MICは、合成からリアルタイム、日夜、クリア・ツー・リバース・ウェザーUDAの様々な認識タスクにおいて、最先端の性能を著しく向上させる。
論文 参考訳(メタデータ) (2022-12-02T17:29:32Z) - Object Detection in Foggy Scenes by Embedding Depth and Reconstruction
into Domain Adaptation [35.751428021375055]
ほとんどの既存ドメイン適応(DA)メソッドは、ドメインの特徴分布に基づいて特徴を整列する。
DAフレームワークでは、ドメイン機能アライメント時の深さとバックグラウンド情報を保持します。
霧のない背景画像の再構成のためのエンコーダ・デコーダ・フレームワークを提案する。
我々の手法は,Fogy Cityscapesデータセットの44.3mAPに対して,最先端の手法(47.6mAP)を大幅に上回る。
論文 参考訳(メタデータ) (2022-11-24T04:27:40Z) - HRDA: Context-Aware High-Resolution Domain-Adaptive Semantic
Segmentation [104.47737619026246]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ソースドメインでトレーニングされたモデルをターゲットドメインに適応させることを目的としている。
我々は,小作物の強度を組み合わして細分化の詳細を保存した多分解能トレーニング手法HRDAを提案する。
GTA-to-Cityscapesは5.5 mIoU、Synthia-to-Cityscapesは4.9 mIoUである。
論文 参考訳(メタデータ) (2022-04-27T18:00:26Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments [54.22535063244038]
非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
論文 参考訳(メタデータ) (2020-09-22T08:25:44Z) - Quasi-Dense Similarity Learning for Multiple Object Tracking [82.93471035675299]
本稿では, コントラスト学習のための画像に対して, 数百の領域提案を高密度にサンプリングする準高次類似性学習を提案する。
この類似性学習と既存の検出手法を直接組み合わせてQuasi-Dense Tracking(QDTrack)を構築することができる。
論文 参考訳(メタデータ) (2020-06-11T17:57:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。