論文の概要: DANNet: A One-Stage Domain Adaptation Network for Unsupervised Nighttime
Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2104.10834v1
- Date: Thu, 22 Apr 2021 02:49:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 13:56:37.445168
- Title: DANNet: A One-Stage Domain Adaptation Network for Unsupervised Nighttime
Semantic Segmentation
- Title(参考訳): dannet:非教師なし夜間意味セグメンテーションのためのワンステージドメイン適応ネットワーク
- Authors: Xinyi Wu, Zhenyao Wu, Hao Guo, Lili Ju, Song Wang
- Abstract要約: 夜間セマンティックセグメンテーションのための新しいドメイン適応ネットワーク(DANNet)を提案する。
ラベル付きデイタイムデータセットとラベルなしデータセットを備えた敵対的なトレーニングを採用している。
本手法は,夜間セマンティックセグメンテーションにおける最新性能を実現する。
- 参考スコア(独自算出の注目度): 18.43890050736093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation of nighttime images plays an equally important role as
that of daytime images in autonomous driving, but the former is much more
challenging due to poor illuminations and arduous human annotations. In this
paper, we propose a novel domain adaptation network (DANNet) for nighttime
semantic segmentation without using labeled nighttime image data. It employs an
adversarial training with a labeled daytime dataset and an unlabeled dataset
that contains coarsely aligned day-night image pairs. Specifically, for the
unlabeled day-night image pairs, we use the pixel-level predictions of static
object categories on a daytime image as a pseudo supervision to segment its
counterpart nighttime image. We further design a re-weighting strategy to
handle the inaccuracy caused by misalignment between day-night image pairs and
wrong predictions of daytime images, as well as boost the prediction accuracy
of small objects. The proposed DANNet is the first one stage adaptation
framework for nighttime semantic segmentation, which does not train additional
day-night image transfer models as a separate pre-processing stage. Extensive
experiments on Dark Zurich and Nighttime Driving datasets show that our method
achieves state-of-the-art performance for nighttime semantic segmentation.
- Abstract(参考訳): 夜間画像のセマンティクスセグメンテーションは、自動運転における昼間画像と同等に重要な役割を果たすが、前者は、照度が悪いことや激しい人間のアノテーションのため、はるかに困難である。
本稿では,ラベル付き夜間画像データを用いずに,夜間意味セグメンテーションのための新しいドメイン適応ネットワーク(dannet)を提案する。
ラベル付き昼行データセットと、大まかに整列された昼行イメージペアを含むラベルなしデータセットとの敵対的なトレーニングを採用している。
特に、ラベルのない昼夜画像ペアの場合、日中画像の静的オブジェクトカテゴリのピクセルレベルの予測を擬似監督として使用し、対応する夜間画像にセグメント化します。
さらに,昼夜画像ペア間の不一致と日中画像の誤った予測を処理し,小型物体の予測精度を高めるための重み付け戦略を考案した。
提案したDANNetは、夜間セマンティックセグメンテーションのための最初の1段階適応フレームワークであり、別の前処理段階として追加の夜間画像転送モデルを訓練しない。
ダークチューリッヒとナイトタイム駆動データセットに関する広範囲な実験により,夜間意味セグメンテーションにおける最先端の性能が得られた。
関連論文リスト
- Exploring Reliable Matching with Phase Enhancement for Night-time Semantic Segmentation [58.180226179087086]
夜間セマンティックセマンティックセグメンテーションに適した新しいエンドツーエンド最適化手法であるNightFormerを提案する。
具体的には,画素レベルのテクスチャ・エンハンスメント・モジュールを設計し,フェーズ・エンハンスメントとアンプリメント・アテンションとともに階層的にテクスチャ・アウェア機能を取得する。
提案手法は、最先端の夜間セマンティックセグメンテーション手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2024-08-25T13:59:31Z) - PIG: Prompt Images Guidance for Night-Time Scene Parsing [48.35991796324741]
非教師なし領域適応(UDA)が夜景の研究の主流となっている。
そこで我々はNFNet(Night-Focused Network)を提案する。
NightCity、NightCity+、Dark Zurich、ACDCの4つのナイトタイムデータセットで実験を行いました。
論文 参考訳(メタデータ) (2024-06-15T07:06:19Z) - CMDA: Cross-Modality Domain Adaptation for Nighttime Semantic
Segmentation [21.689985575213512]
夜間セマンティックセグメンテーションのためのマルチモーダル(画像とイベント)情報を活用するための,教師なしクロスモーダルドメイン適応(CMDA)フレームワークを提案する。
CMDAでは,映像から映像情報を抽出する動き抽出器と映像コンテンツ抽出器を設計し,画像からコンテンツ情報を抽出する。
夜間のセマンティックセマンティックセグメンテーションデータセットについて紹介する。
論文 参考訳(メタデータ) (2023-07-29T09:29:09Z) - Similarity Min-Max: Zero-Shot Day-Night Domain Adaptation [52.923298434948606]
低照度条件は人間の視覚経験を妨げるだけでなく、下流の視覚タスクにおけるモデルの性能を低下させる。
この論文は、境界適用性、すなわちゼロショットの昼夜ドメイン適応に関するより複雑なシナリオに挑戦する。
我々は、それらを統一された枠組みで考える類似性 min-max パラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-17T18:50:15Z) - Disentangled Contrastive Image Translation for Nighttime Surveillance [87.03178320662592]
夜間監視は、照明の悪さと厳しい人間のアノテーションによる劣化に悩まされる。
既存の手法では、暗黒の物体を知覚するためにマルチスペクトル画像が使われており、解像度の低さと色の不在に悩まされている。
夜間監視の究極の解決策は、夜から昼までの翻訳(Night2Day)である、と私たちは主張する。
本論文は、夜間監視研究を支援する6つのシーンを含む、NightSuRと呼ばれる新しい監視データセットに貢献する。
論文 参考訳(メタデータ) (2023-07-11T06:40:27Z) - LoopDA: Constructing Self-loops to Adapt Nighttime Semantic Segmentation [5.961294477200831]
ドメイン適応型夜間セマンティックセマンティックセグメンテーションのためのLoopDAを提案する。
我々のモデルは、意味的セグメンテーションのためのダークチューリッヒとナイトタイム・ドライビングのデータセットの先行手法よりも優れている。
論文 参考訳(メタデータ) (2022-11-21T21:46:05Z) - GPS-GLASS: Learning Nighttime Semantic Segmentation Using Daytime Video
and GPS data [15.430918080412518]
特に夜間セマンティックセグメンテーションは、注釈付き夜間画像の欠如により困難である。
夜間セマンティックセグメンテーションのための新しいGPSベースのトレーニングフレームワークを提案する。
実験により,複数の夜間セマンティックセグメンテーションデータセットにおける提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-07-27T05:05:04Z) - Cross-Domain Correlation Distillation for Unsupervised Domain Adaptation
in Nighttime Semantic Segmentation [17.874336775904272]
CCDistillと呼ばれるクロスドメイン相関蒸留による新しいドメイン適応フレームワークを提案する。
特徴に含まれる内容やスタイルの知識を抽出し、2つの画像間の固有または照度差の度合いを算出する。
Dark Zurich と ACDC の実験では,CCDistill が夜間セマンティックセマンティックセグメンテーションの最先端性能を達成することを示した。
論文 参考訳(メタデータ) (2022-05-02T12:42:04Z) - Bi-Mix: Bidirectional Mixing for Domain Adaptive Nighttime Semantic
Segmentation [83.97914777313136]
自律運転では、様々な環境条件に適応できるセグメンテーションモデルを学ぶことが重要である。
本稿では,識別型夜間モデル学習を目的としたDANSS(Domain Adaptive Nighttime Semantic)の問題点について考察する。
本稿では,DANSS のための新しい Bi-Mix フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-19T17:39:47Z) - Map-Guided Curriculum Domain Adaptation and Uncertainty-Aware Evaluation
for Semantic Nighttime Image Segmentation [107.33492779588641]
夜間アノテーションを使わずに,日毎のセマンティックセマンティックセマンティクスモデルを適用するためのカリキュラムフレームワークを開発した。
また、夜間画像のセマンティクスの実質的不確実性に対処するための新しい評価フレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-28T16:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。