論文の概要: Improving Panoptic Segmentation for Nighttime or Low-Illumination Urban
Driving Scenes
- arxiv url: http://arxiv.org/abs/2306.13725v1
- Date: Fri, 23 Jun 2023 18:14:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 19:39:31.490277
- Title: Improving Panoptic Segmentation for Nighttime or Low-Illumination Urban
Driving Scenes
- Title(参考訳): 夜間・低照度都市運転シーンにおけるパノプティカルセグメンテーションの改善
- Authors: Ankur Chrungoo
- Abstract要約: そこで本研究では,Panopticセグメンテーションの性能とロバスト性を改善するための2つの新しい手法を提案する。
悪い結果の要因の1つは、都会の運転シーンに十分な、正確にアノテートされた夜間画像がないことである。
提案手法はCycleGANを用いて,既存の汎視的アノテーションを用いた昼間画像から夜間画像への変換を行う。
その後、照明条件や夜間条件下での性能と堅牢性を向上させるために、パノプティカルセグメンテーションモデルを再訓練するために使用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous vehicles and driving systems use scene parsing as an essential
tool to understand the surrounding environment. Panoptic segmentation is a
state-of-the-art technique which proves to be pivotal in this use case. Deep
learning-based architectures have been utilized for effective and efficient
Panoptic Segmentation in recent times. However, when it comes to adverse
conditions like dark scenes with poor illumination or nighttime images,
existing methods perform poorly in comparison to daytime images. One of the
main factors for poor results is the lack of sufficient and accurately
annotated nighttime images for urban driving scenes. In this work, we propose
two new methods, first to improve the performance, and second to improve the
robustness of panoptic segmentation in nighttime or poor illumination urban
driving scenes using a domain translation approach. The proposed approach makes
use of CycleGAN (Zhu et al., 2017) to translate daytime images with existing
panoptic annotations into nighttime images, which are then utilized to retrain
a Panoptic segmentation model to improve performance and robustness under poor
illumination and nighttime conditions. In our experiments, Approach-1
demonstrates a significant improvement in the Panoptic segmentation performance
on the converted Cityscapes dataset with more than +10% PQ, +12% RQ, +2% SQ,
+14% mIoU and +10% AP50 absolute gain. Approach-2 demonstrates improved
robustness to varied nighttime driving environments. Both the approaches are
supported via comprehensive quantitative and qualitative analysis.
- Abstract(参考訳): 自動運転車と運転システムは、周囲の環境を理解するための重要なツールとしてシーン解析を使用する。
パノプティカルセグメンテーション(英: Panoptic segmentation)は、このユースケースにおいて重要な技術であることを示す最先端技術である。
ディープラーニングに基づくアーキテクチャは、近年、効果的で効率的なPanoptic Segmentationに活用されている。
しかし、照明の悪い暗いシーンや夜間のイメージといった悪条件の場合、既存の手法は昼間画像に比べて性能が劣る。
結果の悪い要因の1つは、都会の運転シーンに十分なアノテートされた夜間画像がないことである。
本研究では,まず,夜間や低照明の都市運転シーンにおけるパノプティックセグメンテーションのロバスト性を改善するために,ドメイン翻訳手法を用いて2つの新しい手法を提案する。
提案されたアプローチでは、cyclegan(zhu et al., 2017)を使用して、既存のpanopticアノテーションを夜間画像に変換する。
実験では,変換したCityscapesデータセットのPanopticセグメンテーション性能が,+10% PQ,+12% RQ,+2% SQ,+14% mIoU,+10% AP50絶対ゲインで大幅に向上した。
アプローチ2は、夜間運転環境の改善したロバスト性を示す。
どちらのアプローチも、包括的な定量的および定性的分析によってサポートされている。
関連論文リスト
- Exploring Reliable Matching with Phase Enhancement for Night-time Semantic Segmentation [58.180226179087086]
夜間セマンティックセマンティックセグメンテーションに適した新しいエンドツーエンド最適化手法であるNightFormerを提案する。
具体的には,画素レベルのテクスチャ・エンハンスメント・モジュールを設計し,フェーズ・エンハンスメントとアンプリメント・アテンションとともに階層的にテクスチャ・アウェア機能を取得する。
提案手法は、最先端の夜間セマンティックセグメンテーション手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2024-08-25T13:59:31Z) - RHRSegNet: Relighting High-Resolution Night-Time Semantic Segmentation [0.0]
夜間セマンティックセグメンテーションはコンピュータビジョンにおいて重要な課題であり、低照度条件下でのオブジェクトの正確な分類とセグメンテーションに焦点を当てている。
セマンティックセグメンテーションのための高分解能ネットワーク上でのリライトモデルを実装したRHRSegNetを提案する。
提案モデルでは、低照度画像や夜間画像においてHRnetセグメンテーション性能を5%向上させる。
論文 参考訳(メタデータ) (2024-07-08T15:07:09Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - Similarity Min-Max: Zero-Shot Day-Night Domain Adaptation [52.923298434948606]
低照度条件は人間の視覚経験を妨げるだけでなく、下流の視覚タスクにおけるモデルの性能を低下させる。
この論文は、境界適用性、すなわちゼロショットの昼夜ドメイン適応に関するより複雑なシナリオに挑戦する。
我々は、それらを統一された枠組みで考える類似性 min-max パラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-17T18:50:15Z) - STEPS: Joint Self-supervised Nighttime Image Enhancement and Depth
Estimation [12.392842482031558]
本研究では,夜間画像強調器と深度推定器を両課題に使用せずに共同で学習する手法を提案する。
提案手法は,新たに提案された不確実な画素マスキング戦略を用いて,2つの自己監督タスクを密に絡み合わせる。
提案手法をnuScenesとRobotCarの2つの確立したデータセットでベンチマークする。
論文 参考訳(メタデータ) (2023-02-02T18:59:47Z) - Boosting Night-time Scene Parsing with Learnable Frequency [53.05778451012621]
NTSP(Night-Time Scene Parsing)は多くの視覚アプリケーション、特に自律運転に必須である。
既存の手法のほとんどは日中シーン解析のために提案されている。
提案手法は,NightCity,NightCity+およびBDD100K-nightデータセットの最先端手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2022-08-30T13:09:59Z) - NightLab: A Dual-level Architecture with Hardness Detection for
Segmentation at Night [6.666707251631694]
夜間セグメンテーションフレームワークであるNightLabを提案する。
画像と局所の2段階のモデルであり、各レベルは光適応とセグメンテーションモジュールで構成されている。
NightCityとBDD100Kデータセットの実験では、並行メソッドと比較して、NightLabはステート・オブ・ザ・アート(SoTA)のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2022-04-12T05:50:22Z) - Bi-Mix: Bidirectional Mixing for Domain Adaptive Nighttime Semantic
Segmentation [83.97914777313136]
自律運転では、様々な環境条件に適応できるセグメンテーションモデルを学ぶことが重要である。
本稿では,識別型夜間モデル学習を目的としたDANSS(Domain Adaptive Nighttime Semantic)の問題点について考察する。
本稿では,DANSS のための新しい Bi-Mix フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-19T17:39:47Z) - Regularizing Nighttime Weirdness: Efficient Self-supervised Monocular
Depth Estimation in the Dark [20.66405067066299]
未ペア深度マップから分布知識を学習するために,プリエントベース正規化を導入する。
また、画像の可視性とコントラストを高めるために、マッピング一貫性画像強調モジュールを活用している。
筆者らのフレームワークは,2つの夜間データセットに対して,顕著な改善と最先端の結果を達成している。
論文 参考訳(メタデータ) (2021-08-09T06:24:35Z) - Night-time Scene Parsing with a Large Real Dataset [67.11211537439152]
我々は,夜間シーン解析(NTSP)の問題に対処することを目指しており,主な課題が2つある。
夜間データの不足に対処するため、実夜間画像4,297枚からなる新しいラベル付きデータセット、NightCityを収集した。
また,NTSP問題に対処するための露出認識フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-15T18:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。