論文の概要: Instance-Warp: Saliency Guided Image Warping for Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2403.12712v3
- Date: Wed, 04 Dec 2024 18:18:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:05:38.133184
- Title: Instance-Warp: Saliency Guided Image Warping for Unsupervised Domain Adaptation
- Title(参考訳): インスタンスワープ: 教師なしドメイン適応のためのSaliency Guided Image Warping
- Authors: Shen Zheng, Anurag Ghosh, Srinivasa G. Narasimhan,
- Abstract要約: 本研究は,有能な物体に焦点を合わせるために,位置画像ワープを適用してUDAトレーニングを改善する。
我々は,対象領域を適応的にオーバーサンプリングし,背景領域をアンダーサンプリングするインスタンスレベルのサリエンシガイダンスを設計する。
結果のハイライトは、BDD100K Clearの+6.1 mAP50、BDD100K Dayの+3.7 mAP50、Cityscapesの+6.3 mIoUである。
- 参考スコア(独自算出の注目度): 19.144094571994756
- License:
- Abstract: Driving is challenging in conditions like night, rain, and snow. Lack of good labeled datasets has hampered progress in scene understanding under such conditions. Unsupervised Domain Adaptation (UDA) using large labeled clear-day datasets is a promising research direction in such cases. However, many UDA methods are trained with dominant scene backgrounds (e.g., roads, sky, sidewalks) that appear dramatically different across domains. As a result, they struggle to learn effective features of smaller and often sparse foreground objects (e.g., people, vehicles, signs). In this work, we improve UDA training by applying in-place image warping to focus on salient objects. We design instance-level saliency guidance to adaptively oversample object regions and undersample background areas, which reduces adverse effects from background context and enhances backbone feature learning. Our approach improves adaptation across geographies, lighting, and weather conditions, and is agnostic to the task (segmentation, detection), domain adaptation algorithm, saliency guidance, and underlying model architecture. Result highlights include +6.1 mAP50 for BDD100K Clear $\rightarrow$ DENSE Foggy, +3.7 mAP50 for BDD100K Day $\rightarrow$ Night, +3.0 mAP50 for BDD100K Clear $\rightarrow$ Rainy, and +6.3 mIoU for Cityscapes $\rightarrow$ ACDC. Besides, Our method adds minimal training memory and no additional inference latency. Code is available at https://github.com/ShenZheng2000/Instance-Warp
- Abstract(参考訳): 夜間、雨、雪などでは運転が難しい。
良質なラベル付きデータセットの欠如は、そのような条件下でのシーン理解の進歩を妨げている。
大規模ラベル付きクリアデイデータセットを用いた教師なしドメイン適応(UDA)は、そのようなケースにおいて有望な研究方向である。
しかし、多くのUDA手法は、ドメイン間で劇的に異なるシーン背景(道路、空、歩道など)で訓練されている。
その結果、より小さく、しばしば疎い前景の物体(例えば、人、車、標識)の効果的な特徴を学ぶのに苦労した。
本研究は,有能な物体に焦点を合わせるために,位置画像ワープを適用してUDAトレーニングを改善する。
我々は、背景領域を適応的にオーバーサンプリングし、背景領域をアンダーサンプリングするインスタンスレベルのサリエンシガイダンスを設計し、背景コンテキストからの悪影響を低減し、バックボーンの特徴学習を強化する。
提案手法は,地理,照明,気象条件の順応性を改善し,タスク(セグメンテーション,検出),ドメイン適応アルゴリズム,サリエンシガイダンス,基礎となるモデルアーキテクチャに依存しない。
結果のハイライトは、BDD100K Clear $\rightarrow$ DENSE Foggy, +3.7 mAP50 for BDD100K Day $\rightarrow$ Night, +3.0 mAP50 for BDD100K Clear $\rightarrow$ Rainy, +6.3 mooU for Cityscapes $\rightarrow$ ACDCである。
さらに,本手法では最小限のトレーニングメモリを付加し,追加の推論遅延を発生しない。
コードはhttps://github.com/ShenZheng2000/Instance-Warpで入手できる。
関連論文リスト
- Enhancing Autonomous Vehicle Perception in Adverse Weather through Image Augmentation during Semantic Segmentation Training [0.0]
我々は,エンコーダ・デコーダUNetモデルを訓練し,セマンティックセグメンテーション拡張を行った。
天気データに基づいてトレーニングされたモデルは、晴れた日を除いて、すべての条件でトレーニングされたデータよりも著しく損失が小さい。
論文 参考訳(メタデータ) (2024-08-14T00:08:28Z) - RoScenes: A Large-scale Multi-view 3D Dataset for Roadside Perception [98.76525636842177]
RoScenesは、最大規模のマルチビューロードサイド認識データセットである。
私たちのデータセットは、驚くべき21.13Mの3Dアノテーションを64,000$m2$で達成しています。
論文 参考訳(メタデータ) (2024-05-16T08:06:52Z) - DTBS: Dual-Teacher Bi-directional Self-training for Domain Adaptation in
Nighttime Semantic Segmentation [1.7205106391379026]
夜間の状況は、自動運転車の認識システムにとって大きな課題となる。
非教師なし領域適応(UDA)は、そのような画像のセマンティックセグメンテーションに広く応用されている。
本研究では,スムーズな知識伝達とフィードバックのためのDTBS(Dual-Teacher Bi-directional Self-Tning)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-02T06:56:57Z) - The Change You Want to See (Now in 3D) [65.61789642291636]
本稿の目的は、同じ3Dシーンの2つの「野生」画像の間で何が変わったかを検出することである。
我々は,全合成データに基づいて学習し,クラスに依存しない変化検出モデルに貢献する。
我々は,人間に注釈を付けた実世界のイメージペアによる評価データセットを新たにリリースした。
論文 参考訳(メタデータ) (2023-08-21T01:59:45Z) - MIC: Masked Image Consistency for Context-Enhanced Domain Adaptation [104.40114562948428]
教師なしドメイン適応(UDA)では、ソースデータ(例えば、合成)に基づいて訓練されたモデルは、ターゲットアノテーションにアクセスすることなく、ターゲットデータ(例えば、現実世界)に適応する。
本研究では,対象領域の空間的コンテキスト関係を学習し,UDAを向上するMasked Image Consistency (MIC)モジュールを提案する。
MICは、合成からリアルタイム、日夜、クリア・ツー・リバース・ウェザーUDAの様々な認識タスクにおいて、最先端の性能を著しく向上させる。
論文 参考訳(メタデータ) (2022-12-02T17:29:32Z) - Improving Pixel-Level Contrastive Learning by Leveraging Exogenous Depth
Information [7.561849435043042]
近年,コントラスト学習(CL)に基づく自己指導型表現学習が注目されている。
本稿では,深度ネットワークを用いたり,利用可能なデータから測定したりすることで得られる深度情報に焦点を当てる。
比較損失におけるこの推定情報を用いることで、結果が改善され、学習された表現がオブジェクトの形状に従うのがよいことを示す。
論文 参考訳(メタデータ) (2022-11-18T11:45:39Z) - HRDA: Context-Aware High-Resolution Domain-Adaptive Semantic
Segmentation [104.47737619026246]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ソースドメインでトレーニングされたモデルをターゲットドメインに適応させることを目的としている。
我々は,小作物の強度を組み合わして細分化の詳細を保存した多分解能トレーニング手法HRDAを提案する。
GTA-to-Cityscapesは5.5 mIoU、Synthia-to-Cityscapesは4.9 mIoUである。
論文 参考訳(メタデータ) (2022-04-27T18:00:26Z) - Danish Airs and Grounds: A Dataset for Aerial-to-Street-Level Place
Recognition and Localization [9.834635805575584]
我々は,この事例を対象とする道路や航空画像の大規模な収集であるemphDanish Airs and Groundsデータセットにコントリビュートする。
データセットは、都市部、郊外部、農村部で50km以上の道路を含む、現在利用可能なデータよりも大きく、多様である。
そこで本研究では,まず空中画像から高密度な3次元再構成を推定し,検索したストリートレベルの画像と3次元モデルのストリートレベルのレンダリングをマッチングするマップ・ツー・イメージ再配置パイプラインを提案する。
論文 参考訳(メタデータ) (2022-02-03T19:58:09Z) - SF-UDA$^{3D}$: Source-Free Unsupervised Domain Adaptation for
LiDAR-Based 3D Object Detection [66.63707940938012]
LiDAR点雲のみに基づく3Dオブジェクト検出器は、現代のストリートビューベンチマークの最先端を保っている。
本稿ではSF-UDA$3D$で最先端のPointRCNN 3D検出器をドメイン適応し、アノテーションのないドメインをターゲットにする。
論文 参考訳(メタデータ) (2020-10-16T08:44:49Z) - BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments [54.22535063244038]
非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
論文 参考訳(メタデータ) (2020-09-22T08:25:44Z) - Keep it Simple: Image Statistics Matching for Domain Adaptation [0.0]
ドメイン適応(英: Domain Adaptation, DA)とは、未ラベル画像のみが対象領域から利用可能である場合に検出精度を維持する手法である。
最近の最先端の手法は、敵の訓練戦略を用いて領域ギャップを減らそうとしている。
そこで本研究では,色ヒストグラムと平均画像の共分散を対象領域に合わせることを提案する。
近年の手法と比較して,より簡単な訓練手法を用いて最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-05-26T07:32:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。