論文の概要: Cross-Domain Correlation Distillation for Unsupervised Domain Adaptation
in Nighttime Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2205.00858v1
- Date: Mon, 2 May 2022 12:42:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 15:13:18.922241
- Title: Cross-Domain Correlation Distillation for Unsupervised Domain Adaptation
in Nighttime Semantic Segmentation
- Title(参考訳): 夜間セマンティックセグメンテーションにおける教師なしドメイン適応のためのクロスドメイン相関蒸留
- Authors: Huan Gao, Jichang Guo, Guoli Wang, Qian Zhang
- Abstract要約: CCDistillと呼ばれるクロスドメイン相関蒸留による新しいドメイン適応フレームワークを提案する。
特徴に含まれる内容やスタイルの知識を抽出し、2つの画像間の固有または照度差の度合いを算出する。
Dark Zurich と ACDC の実験では,CCDistill が夜間セマンティックセマンティックセグメンテーションの最先端性能を達成することを示した。
- 参考スコア(独自算出の注目度): 17.874336775904272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of nighttime semantic segmentation is restricted by the poor
illumination and a lack of pixel-wise annotation, which severely limit its
application in autonomous driving. Existing works, e.g., using the twilight as
the intermediate target domain to perform the adaptation from daytime to
nighttime, may fail to cope with the inherent difference between datasets
caused by the camera equipment and the urban style. Faced with these two types
of domain shifts, i.e., the illumination and the inherent difference of the
datasets, we propose a novel domain adaptation framework via cross-domain
correlation distillation, called CCDistill. The invariance of illumination or
inherent difference between two images is fully explored so as to make up for
the lack of labels for nighttime images. Specifically, we extract the content
and style knowledge contained in features, calculate the degree of inherent or
illumination difference between two images. The domain adaptation is achieved
using the invariance of the same kind of difference. Extensive experiments on
Dark Zurich and ACDC demonstrate that CCDistill achieves the state-of-the-art
performance for nighttime semantic segmentation. Notably, our method is a
one-stage domain adaptation network which can avoid affecting the inference
time. Our implementation is available at https://github.com/ghuan99/CCDistill.
- Abstract(参考訳): 夜間セマンティックセグメンテーションの性能は、照明不足と画素単位のアノテーションの欠如によって制限され、自動運転におけるその適用を著しく制限する。
既存の作品(例えば、トワイライトを中間目標領域として使用して昼間から夜間に適応させるなど)は、カメラ機器によって引き起こされるデータセットと都市スタイルとの違いに対処できない可能性がある。
これら2つのドメインシフト,すなわち,データセットの照度と固有の差異に直面して,CCDistillと呼ばれるクロスドメイン相関蒸留による新しいドメイン適応フレームワークを提案する。
夜間画像のラベルの欠如を補うため、2つの画像間の照明のばらつきや固有差を徹底的に検討する。
具体的には,特徴に含まれる内容や様式の知識を抽出し,画像間の固有性や照明性の違いの程度を計算する。
ドメイン適応は、同じ種類の差分の不変性を用いて達成される。
Dark Zurich と ACDC の大規模な実験により,CCDistill が夜間セマンティックセグメンテーションの最先端性能を達成することが示された。
特に,提案手法は1段階のドメイン適応ネットワークであり,推論時間に影響しない。
私たちの実装はhttps://github.com/ghuan99/ccdistillで利用可能です。
関連論文リスト
- Exploring Reliable Matching with Phase Enhancement for Night-time Semantic Segmentation [58.180226179087086]
夜間セマンティックセマンティックセグメンテーションに適した新しいエンドツーエンド最適化手法であるNightFormerを提案する。
具体的には,画素レベルのテクスチャ・エンハンスメント・モジュールを設計し,フェーズ・エンハンスメントとアンプリメント・アテンションとともに階層的にテクスチャ・アウェア機能を取得する。
提案手法は、最先端の夜間セマンティックセグメンテーション手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2024-08-25T13:59:31Z) - Distractors-Immune Representation Learning with Cross-modal Contrastive Regularization for Change Captioning [71.14084801851381]
変更キャプションは、類似した画像間のセマンティックな変化を簡潔に記述することを目的としている。
既存のほとんどの手法は、それらの違いを直接キャプチャし、エラーを起こしやすい特徴を得るリスクを負う。
本稿では,2つの画像表現の対応するチャネルを関連づけるイントラクタ免疫表現学習ネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T13:00:33Z) - Similarity Min-Max: Zero-Shot Day-Night Domain Adaptation [52.923298434948606]
低照度条件は人間の視覚経験を妨げるだけでなく、下流の視覚タスクにおけるモデルの性能を低下させる。
この論文は、境界適用性、すなわちゼロショットの昼夜ドメイン適応に関するより複雑なシナリオに挑戦する。
我々は、それらを統一された枠組みで考える類似性 min-max パラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-17T18:50:15Z) - Unsupervised Foggy Scene Understanding via Self Spatial-Temporal Label
Diffusion [51.11295961195151]
運転シーンの霧画像列の特徴を利用して、自信ある擬似ラベルを密度化する。
局所的な空間的類似性と逐次画像データの隣接時間対応の2つの発見に基づいて,新たなターゲット・ドメイン駆動擬似ラベル拡散方式を提案する。
本手法は,2つの天然霧のデータセット上で51.92%,53.84%の平均交叉結合(mIoU)を達成するのに有効である。
論文 参考訳(メタデータ) (2022-06-10T05:16:50Z) - Bi-Mix: Bidirectional Mixing for Domain Adaptive Nighttime Semantic
Segmentation [83.97914777313136]
自律運転では、様々な環境条件に適応できるセグメンテーションモデルを学ぶことが重要である。
本稿では,識別型夜間モデル学習を目的としたDANSS(Domain Adaptive Nighttime Semantic)の問題点について考察する。
本稿では,DANSS のための新しい Bi-Mix フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-19T17:39:47Z) - Self-supervised Monocular Depth Estimation for All Day Images using
Domain Separation [17.066753214406525]
本稿では,全日画像の自己教師付き深度推定のための領域分離ネットワークを提案する。
提案手法は,オックスフォード・ロボットカー・データセットにおける全日画像の最先端の深度推定結果を実現する。
論文 参考訳(メタデータ) (2021-08-17T13:52:19Z) - DANNet: A One-Stage Domain Adaptation Network for Unsupervised Nighttime
Semantic Segmentation [18.43890050736093]
夜間セマンティックセグメンテーションのための新しいドメイン適応ネットワーク(DANNet)を提案する。
ラベル付きデイタイムデータセットとラベルなしデータセットを備えた敵対的なトレーニングを採用している。
本手法は,夜間セマンティックセグメンテーションにおける最新性能を実現する。
論文 参考訳(メタデータ) (2021-04-22T02:49:28Z) - Map-Guided Curriculum Domain Adaptation and Uncertainty-Aware Evaluation
for Semantic Nighttime Image Segmentation [107.33492779588641]
夜間アノテーションを使わずに,日毎のセマンティックセマンティックセマンティクスモデルを適用するためのカリキュラムフレームワークを開発した。
また、夜間画像のセマンティクスの実質的不確実性に対処するための新しい評価フレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-28T16:54:38Z) - HeatNet: Bridging the Day-Night Domain Gap in Semantic Segmentation with
Thermal Images [26.749261270690425]
現実の運転シナリオでは、夜間照明や光沢のような環境条件が悪くなる。
日中夜間に適用可能な多モーダルセマンティックセマンティックセマンティクスモデルを提案する。
RGB画像以外にも、サーマルイメージを活用して、ネットワークをはるかに堅牢にしています。
論文 参考訳(メタデータ) (2020-03-10T11:36:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。