論文の概要: Instance-Warp: Saliency Guided Image Warping for Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2403.12712v3
- Date: Wed, 04 Dec 2024 18:18:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:05:38.133184
- Title: Instance-Warp: Saliency Guided Image Warping for Unsupervised Domain Adaptation
- Title(参考訳): インスタンスワープ: 教師なしドメイン適応のためのSaliency Guided Image Warping
- Authors: Shen Zheng, Anurag Ghosh, Srinivasa G. Narasimhan,
- Abstract要約: 本研究は,有能な物体に焦点を合わせるために,位置画像ワープを適用してUDAトレーニングを改善する。
我々は,対象領域を適応的にオーバーサンプリングし,背景領域をアンダーサンプリングするインスタンスレベルのサリエンシガイダンスを設計する。
結果のハイライトは、BDD100K Clearの+6.1 mAP50、BDD100K Dayの+3.7 mAP50、Cityscapesの+6.3 mIoUである。
- 参考スコア(独自算出の注目度): 19.144094571994756
- License:
- Abstract: Driving is challenging in conditions like night, rain, and snow. Lack of good labeled datasets has hampered progress in scene understanding under such conditions. Unsupervised Domain Adaptation (UDA) using large labeled clear-day datasets is a promising research direction in such cases. However, many UDA methods are trained with dominant scene backgrounds (e.g., roads, sky, sidewalks) that appear dramatically different across domains. As a result, they struggle to learn effective features of smaller and often sparse foreground objects (e.g., people, vehicles, signs). In this work, we improve UDA training by applying in-place image warping to focus on salient objects. We design instance-level saliency guidance to adaptively oversample object regions and undersample background areas, which reduces adverse effects from background context and enhances backbone feature learning. Our approach improves adaptation across geographies, lighting, and weather conditions, and is agnostic to the task (segmentation, detection), domain adaptation algorithm, saliency guidance, and underlying model architecture. Result highlights include +6.1 mAP50 for BDD100K Clear $\rightarrow$ DENSE Foggy, +3.7 mAP50 for BDD100K Day $\rightarrow$ Night, +3.0 mAP50 for BDD100K Clear $\rightarrow$ Rainy, and +6.3 mIoU for Cityscapes $\rightarrow$ ACDC. Besides, Our method adds minimal training memory and no additional inference latency. Code is available at https://github.com/ShenZheng2000/Instance-Warp
- Abstract(参考訳): 夜間、雨、雪などでは運転が難しい。
良質なラベル付きデータセットの欠如は、そのような条件下でのシーン理解の進歩を妨げている。
大規模ラベル付きクリアデイデータセットを用いた教師なしドメイン適応(UDA)は、そのようなケースにおいて有望な研究方向である。
しかし、多くのUDA手法は、ドメイン間で劇的に異なるシーン背景(道路、空、歩道など)で訓練されている。
その結果、より小さく、しばしば疎い前景の物体(例えば、人、車、標識)の効果的な特徴を学ぶのに苦労した。
本研究は,有能な物体に焦点を合わせるために,位置画像ワープを適用してUDAトレーニングを改善する。
我々は、背景領域を適応的にオーバーサンプリングし、背景領域をアンダーサンプリングするインスタンスレベルのサリエンシガイダンスを設計し、背景コンテキストからの悪影響を低減し、バックボーンの特徴学習を強化する。
提案手法は,地理,照明,気象条件の順応性を改善し,タスク(セグメンテーション,検出),ドメイン適応アルゴリズム,サリエンシガイダンス,基礎となるモデルアーキテクチャに依存しない。
結果のハイライトは、BDD100K Clear $\rightarrow$ DENSE Foggy, +3.7 mAP50 for BDD100K Day $\rightarrow$ Night, +3.0 mAP50 for BDD100K Clear $\rightarrow$ Rainy, +6.3 mooU for Cityscapes $\rightarrow$ ACDCである。
さらに,本手法では最小限のトレーニングメモリを付加し,追加の推論遅延を発生しない。
コードはhttps://github.com/ShenZheng2000/Instance-Warpで入手できる。
関連論文リスト
- Pseudolabel guided pixels contrast for domain adaptive semantic segmentation [0.9831489366502301]
セマンティックセグメンテーションのための教師なしドメイン適応(UDA)は、ラベル付き仮想データを使用してモデルをトレーニングし、ラベルなしで実際のデータに適応するテクニックである。
近年のいくつかの研究は、このテクニックを支援するために、自己教師付き学習の強力な方法であるコントラスト学習を使用している。
Pseudo-label Guided Pixel Contrast (PGPC) と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-15T03:25:25Z) - A-BDD: Leveraging Data Augmentations for Safe Autonomous Driving in Adverse Weather and Lighting [35.410769661423004]
A-BDDは、BDD100Kをベースとした6万以上の合成画像の大規模な集合である。
データセットには、雨、霧、曇り、日陰、日陰の増設データが含まれており、強度レベルは様々である。
我々は、悪天候や照明条件における性能ギャップを埋める上で、データ拡張が重要な役割を果たす証拠を提供する。
論文 参考訳(メタデータ) (2024-08-12T11:44:47Z) - RoScenes: A Large-scale Multi-view 3D Dataset for Roadside Perception [98.76525636842177]
RoScenesは、最大規模のマルチビューロードサイド認識データセットである。
私たちのデータセットは、驚くべき21.13Mの3Dアノテーションを64,000$m2$で達成しています。
論文 参考訳(メタデータ) (2024-05-16T08:06:52Z) - DTBS: Dual-Teacher Bi-directional Self-training for Domain Adaptation in
Nighttime Semantic Segmentation [1.7205106391379026]
夜間の状況は、自動運転車の認識システムにとって大きな課題となる。
非教師なし領域適応(UDA)は、そのような画像のセマンティックセグメンテーションに広く応用されている。
本研究では,スムーズな知識伝達とフィードバックのためのDTBS(Dual-Teacher Bi-directional Self-Tning)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-02T06:56:57Z) - T-UDA: Temporal Unsupervised Domain Adaptation in Sequential Point
Clouds [2.5291108878852864]
教師なしドメイン適応(UDA)メソッドは、1つの(ソース)ドメインでトレーニングされたモデルに、アノテーションが利用可能な他の(ターゲット)ドメインに適応する。
本稿では,両トレンドの長所を活かした新しい領域適応手法を提案する。この組み合わせにより,運転シーンの3次元セマンティックセマンティックセグメンテーションのタスクにおいて,大きなパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2023-09-15T10:47:12Z) - MIC: Masked Image Consistency for Context-Enhanced Domain Adaptation [104.40114562948428]
教師なしドメイン適応(UDA)では、ソースデータ(例えば、合成)に基づいて訓練されたモデルは、ターゲットアノテーションにアクセスすることなく、ターゲットデータ(例えば、現実世界)に適応する。
本研究では,対象領域の空間的コンテキスト関係を学習し,UDAを向上するMasked Image Consistency (MIC)モジュールを提案する。
MICは、合成からリアルタイム、日夜、クリア・ツー・リバース・ウェザーUDAの様々な認識タスクにおいて、最先端の性能を著しく向上させる。
論文 参考訳(メタデータ) (2022-12-02T17:29:32Z) - Object Detection in Foggy Scenes by Embedding Depth and Reconstruction
into Domain Adaptation [35.751428021375055]
ほとんどの既存ドメイン適応(DA)メソッドは、ドメインの特徴分布に基づいて特徴を整列する。
DAフレームワークでは、ドメイン機能アライメント時の深さとバックグラウンド情報を保持します。
霧のない背景画像の再構成のためのエンコーダ・デコーダ・フレームワークを提案する。
我々の手法は,Fogy Cityscapesデータセットの44.3mAPに対して,最先端の手法(47.6mAP)を大幅に上回る。
論文 参考訳(メタデータ) (2022-11-24T04:27:40Z) - HRDA: Context-Aware High-Resolution Domain-Adaptive Semantic
Segmentation [104.47737619026246]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ソースドメインでトレーニングされたモデルをターゲットドメインに適応させることを目的としている。
我々は,小作物の強度を組み合わして細分化の詳細を保存した多分解能トレーニング手法HRDAを提案する。
GTA-to-Cityscapesは5.5 mIoU、Synthia-to-Cityscapesは4.9 mIoUである。
論文 参考訳(メタデータ) (2022-04-27T18:00:26Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments [54.22535063244038]
非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
論文 参考訳(メタデータ) (2020-09-22T08:25:44Z) - Quasi-Dense Similarity Learning for Multiple Object Tracking [82.93471035675299]
本稿では, コントラスト学習のための画像に対して, 数百の領域提案を高密度にサンプリングする準高次類似性学習を提案する。
この類似性学習と既存の検出手法を直接組み合わせてQuasi-Dense Tracking(QDTrack)を構築することができる。
論文 参考訳(メタデータ) (2020-06-11T17:57:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。