論文の概要: GPS-GLASS: Learning Nighttime Semantic Segmentation Using Daytime Video
and GPS data
- arxiv url: http://arxiv.org/abs/2207.13297v5
- Date: Fri, 18 Aug 2023 06:38:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 01:27:08.426743
- Title: GPS-GLASS: Learning Nighttime Semantic Segmentation Using Daytime Video
and GPS data
- Title(参考訳): GPS-GLASS:昼夜映像とGPSデータを用いた夜間セマンティックセマンティックセグメンテーション学習
- Authors: Hongjae Lee, Changwoo Han, Jun-Sang Yoo, Seung-Won Jung
- Abstract要約: 特に夜間セマンティックセグメンテーションは、注釈付き夜間画像の欠如により困難である。
夜間セマンティックセグメンテーションのための新しいGPSベースのトレーニングフレームワークを提案する。
実験により,複数の夜間セマンティックセグメンテーションデータセットにおける提案手法の有効性が示された。
- 参考スコア(独自算出の注目度): 15.430918080412518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation for autonomous driving should be robust against various
in-the-wild environments. Nighttime semantic segmentation is especially
challenging due to a lack of annotated nighttime images and a large domain gap
from daytime images with sufficient annotation. In this paper, we propose a
novel GPS-based training framework for nighttime semantic segmentation. Given
GPS-aligned pairs of daytime and nighttime images, we perform cross-domain
correspondence matching to obtain pixel-level pseudo supervision. Moreover, we
conduct flow estimation between daytime video frames and apply GPS-based
scaling to acquire another pixel-level pseudo supervision. Using these pseudo
supervisions with a confidence map, we train a nighttime semantic segmentation
network without any annotation from nighttime images. Experimental results
demonstrate the effectiveness of the proposed method on several nighttime
semantic segmentation datasets. Our source code is available at
https://github.com/jimmy9704/GPS-GLASS.
- Abstract(参考訳): 自動運転のセマンティックセグメンテーションは、様々な現場環境に対して堅牢であるべきである。
特に夜間セマンティックセグメンテーションは、注釈付き夜間画像の欠如と、十分な注釈付き昼間画像とのドメインギャップが大きいため困難である。
本稿では,夜間セマンティックセグメンテーションのための新しいGPSベースのトレーニングフレームワークを提案する。
昼間・夜間のGPS対応画像に対して,画素レベルの擬似監督を得るためにドメイン間対応マッチングを行う。
さらに、日中のビデオフレーム間のフロー推定を行い、GPSによるスケーリングを適用して、別のピクセルレベルの疑似監視を取得する。
これらの疑似監視と信頼マップを用いて、夜間画像からのアノテーションなしで夜間意味セグメンテーションネットワークを訓練する。
実験により,複数の夜間セマンティックセグメンテーションデータセットにおける提案手法の有効性が示された。
ソースコードはhttps://github.com/jimmy9704/GPS-GLASS.comで公開されています。
関連論文リスト
- Exploring Reliable Matching with Phase Enhancement for Night-time Semantic Segmentation [58.180226179087086]
夜間セマンティックセマンティックセグメンテーションに適した新しいエンドツーエンド最適化手法であるNightFormerを提案する。
具体的には,画素レベルのテクスチャ・エンハンスメント・モジュールを設計し,フェーズ・エンハンスメントとアンプリメント・アテンションとともに階層的にテクスチャ・アウェア機能を取得する。
提案手法は、最先端の夜間セマンティックセグメンテーション手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2024-08-25T13:59:31Z) - Learning Semantic Segmentation with Query Points Supervision on Aerial Images [57.09251327650334]
セマンティックセグメンテーションアルゴリズムを学習するための弱教師付き学習アルゴリズムを提案する。
提案手法は正確なセマンティックセグメンテーションを行い,手作業のアノテーションに要するコストと時間を大幅に削減することで効率を向上する。
論文 参考訳(メタデータ) (2023-09-11T14:32:04Z) - CMDA: Cross-Modality Domain Adaptation for Nighttime Semantic
Segmentation [21.689985575213512]
夜間セマンティックセグメンテーションのためのマルチモーダル(画像とイベント)情報を活用するための,教師なしクロスモーダルドメイン適応(CMDA)フレームワークを提案する。
CMDAでは,映像から映像情報を抽出する動き抽出器と映像コンテンツ抽出器を設計し,画像からコンテンツ情報を抽出する。
夜間のセマンティックセマンティックセグメンテーションデータセットについて紹介する。
論文 参考訳(メタデータ) (2023-07-29T09:29:09Z) - Disentangled Contrastive Image Translation for Nighttime Surveillance [87.03178320662592]
夜間監視は、照明の悪さと厳しい人間のアノテーションによる劣化に悩まされる。
既存の手法では、暗黒の物体を知覚するためにマルチスペクトル画像が使われており、解像度の低さと色の不在に悩まされている。
夜間監視の究極の解決策は、夜から昼までの翻訳(Night2Day)である、と私たちは主張する。
本論文は、夜間監視研究を支援する6つのシーンを含む、NightSuRと呼ばれる新しい監視データセットに貢献する。
論文 参考訳(メタデータ) (2023-07-11T06:40:27Z) - LoopDA: Constructing Self-loops to Adapt Nighttime Semantic Segmentation [5.961294477200831]
ドメイン適応型夜間セマンティックセマンティックセグメンテーションのためのLoopDAを提案する。
我々のモデルは、意味的セグメンテーションのためのダークチューリッヒとナイトタイム・ドライビングのデータセットの先行手法よりも優れている。
論文 参考訳(メタデータ) (2022-11-21T21:46:05Z) - Boosting Night-time Scene Parsing with Learnable Frequency [53.05778451012621]
NTSP(Night-Time Scene Parsing)は多くの視覚アプリケーション、特に自律運転に必須である。
既存の手法のほとんどは日中シーン解析のために提案されている。
提案手法は,NightCity,NightCity+およびBDD100K-nightデータセットの最先端手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2022-08-30T13:09:59Z) - Improving Nighttime Driving-Scene Segmentation via Dual Image-adaptive
Learnable Filters [27.960081476653023]
夜間駆動条件におけるセマンティックセグメンテーションを改善するために,デュアルイメージ適応型学習可能フィルタ (DIAL-Filters) と呼ばれるアドオンモジュールを提案する。
DIAL-Filtersは、画像適応処理モジュール(IAPM)と学習可能な誘導フィルタ(LGF)の2つの部分で構成される。
論文 参考訳(メタデータ) (2022-07-04T11:24:10Z) - NightLab: A Dual-level Architecture with Hardness Detection for
Segmentation at Night [6.666707251631694]
夜間セグメンテーションフレームワークであるNightLabを提案する。
画像と局所の2段階のモデルであり、各レベルは光適応とセグメンテーションモジュールで構成されている。
NightCityとBDD100Kデータセットの実験では、並行メソッドと比較して、NightLabはステート・オブ・ザ・アート(SoTA)のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2022-04-12T05:50:22Z) - Bi-Mix: Bidirectional Mixing for Domain Adaptive Nighttime Semantic
Segmentation [83.97914777313136]
自律運転では、様々な環境条件に適応できるセグメンテーションモデルを学ぶことが重要である。
本稿では,識別型夜間モデル学習を目的としたDANSS(Domain Adaptive Nighttime Semantic)の問題点について考察する。
本稿では,DANSS のための新しい Bi-Mix フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-19T17:39:47Z) - DANNet: A One-Stage Domain Adaptation Network for Unsupervised Nighttime
Semantic Segmentation [18.43890050736093]
夜間セマンティックセグメンテーションのための新しいドメイン適応ネットワーク(DANNet)を提案する。
ラベル付きデイタイムデータセットとラベルなしデータセットを備えた敵対的なトレーニングを採用している。
本手法は,夜間セマンティックセグメンテーションにおける最新性能を実現する。
論文 参考訳(メタデータ) (2021-04-22T02:49:28Z) - Map-Guided Curriculum Domain Adaptation and Uncertainty-Aware Evaluation
for Semantic Nighttime Image Segmentation [107.33492779588641]
夜間アノテーションを使わずに,日毎のセマンティックセマンティックセマンティクスモデルを適用するためのカリキュラムフレームワークを開発した。
また、夜間画像のセマンティクスの実質的不確実性に対処するための新しい評価フレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-28T16:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。