論文の概要: Night-time Scene Parsing with a Large Real Dataset
- arxiv url: http://arxiv.org/abs/2003.06883v3
- Date: Fri, 1 Apr 2022 05:40:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 09:04:59.241257
- Title: Night-time Scene Parsing with a Large Real Dataset
- Title(参考訳): 大規模実データを用いた夜間シーン解析
- Authors: Xin Tan and Ke Xu and Ying Cao and Yiheng Zhang and Lizhuang Ma and
Rynson W.H. Lau
- Abstract要約: 我々は,夜間シーン解析(NTSP)の問題に対処することを目指しており,主な課題が2つある。
夜間データの不足に対処するため、実夜間画像4,297枚からなる新しいラベル付きデータセット、NightCityを収集した。
また,NTSP問題に対処するための露出認識フレームワークを提案する。
- 参考スコア(独自算出の注目度): 67.11211537439152
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although huge progress has been made on scene analysis in recent years, most
existing works assume the input images to be in day-time with good lighting
conditions. In this work, we aim to address the night-time scene parsing (NTSP)
problem, which has two main challenges: 1) labeled night-time data are scarce,
and 2) over- and under-exposures may co-occur in the input night-time images
and are not explicitly modeled in existing pipelines. To tackle the scarcity of
night-time data, we collect a novel labeled dataset, named {\it NightCity}, of
4,297 real night-time images with ground truth pixel-level semantic
annotations. To our knowledge, NightCity is the largest dataset for NTSP. In
addition, we also propose an exposure-aware framework to address the NTSP
problem through augmenting the segmentation process with explicitly learned
exposure features. Extensive experiments show that training on NightCity can
significantly improve NTSP performances and that our exposure-aware model
outperforms the state-of-the-art methods, yielding top performances on our
dataset as well as existing datasets.
- Abstract(参考訳): 近年ではシーン解析に大きな進歩が見られるが、既存の作品の多くは、入力画像は昼間の照明条件が良いと想定している。
本研究は、夜間シーン解析(NTSP)問題に対処することを目的としており、主な課題は2つある。
1) ラベル付き夜間データが少ないこと、及び
2) 過度かつ過度な露出は、入力された夜間画像に共起する可能性があり、既存のパイプラインでは明示的にモデル化されない。
夜間データの不足に対処するため,4,297のリアルタイムな夜間画像と地上の真理レベルのセマンティックアノテーションのラベル付きデータセットを新たに収集した。
私たちの知る限り、nightcityはntspの最大のデータセットです。
また,ntsp問題に対処するために,明示的に学習された露出機能を備えたセグメンテーションプロセスを強化することにより,その問題に対処するためのエクスポージョン・アウェア・フレームワークを提案する。
広範な実験によって、nightcityでのトレーニングはntspのパフォーマンスを大幅に向上させ、私たちのエクスポージャーアウェアモデルは最先端のメソッドよりも優れており、データセットと既存のデータセットで最高のパフォーマンスをもたらしています。
関連論文リスト
- NocPlace: Nocturnal Visual Place Recognition Using Generative and
Inherited Knowledge Transfer [11.68565695465447]
視覚的位置認識(VPR)はコンピュータビジョンにおいて重要であり、既知の画像の広範なコレクションからクエリ画像に似たデータベースイメージを取得することを目的としている。
VPRは、単にナイトタイムドメインの問題ではなく、ナイト・ツー・デイのドメイン横断の問題に対処する必要がある。
我々は、大規模で多視点の夜間VPRデータセットを利用して、学習したグローバルディスクリプタに、ダズリングライトと極暗光に対するレジリエンスを埋め込むNocPlaceを提案する。
論文 参考訳(メタデータ) (2024-02-27T02:47:09Z) - Similarity Min-Max: Zero-Shot Day-Night Domain Adaptation [52.923298434948606]
低照度条件は人間の視覚経験を妨げるだけでなく、下流の視覚タスクにおけるモデルの性能を低下させる。
この論文は、境界適用性、すなわちゼロショットの昼夜ドメイン適応に関するより複雑なシナリオに挑戦する。
我々は、それらを統一された枠組みで考える類似性 min-max パラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-17T18:50:15Z) - Disentangled Contrastive Image Translation for Nighttime Surveillance [87.03178320662592]
夜間監視は、照明の悪さと厳しい人間のアノテーションによる劣化に悩まされる。
既存の手法では、暗黒の物体を知覚するためにマルチスペクトル画像が使われており、解像度の低さと色の不在に悩まされている。
夜間監視の究極の解決策は、夜から昼までの翻訳(Night2Day)である、と私たちは主張する。
本論文は、夜間監視研究を支援する6つのシーンを含む、NightSuRと呼ばれる新しい監視データセットに貢献する。
論文 参考訳(メタデータ) (2023-07-11T06:40:27Z) - STEPS: Joint Self-supervised Nighttime Image Enhancement and Depth
Estimation [12.392842482031558]
本研究では,夜間画像強調器と深度推定器を両課題に使用せずに共同で学習する手法を提案する。
提案手法は,新たに提案された不確実な画素マスキング戦略を用いて,2つの自己監督タスクを密に絡み合わせる。
提案手法をnuScenesとRobotCarの2つの確立したデータセットでベンチマークする。
論文 参考訳(メタデータ) (2023-02-02T18:59:47Z) - Boosting Night-time Scene Parsing with Learnable Frequency [53.05778451012621]
NTSP(Night-Time Scene Parsing)は多くの視覚アプリケーション、特に自律運転に必須である。
既存の手法のほとんどは日中シーン解析のために提案されている。
提案手法は,NightCity,NightCity+およびBDD100K-nightデータセットの最先端手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2022-08-30T13:09:59Z) - When the Sun Goes Down: Repairing Photometric Losses for All-Day Depth
Estimation [47.617222712429026]
既存の測光損失を昼夜両方の画像に有効にするための3つの手法の組み合わせについて述べる。
まず、連続するフレーム間で起こる光の変化を補うために、ピクセルごとの神経強度変換を導入する。
第2に,推定エゴモーションと深度によって引き起こされる再投影対応を補正するために,画素ごとの残留フローマップを推定する。
論文 参考訳(メタデータ) (2022-06-28T09:29:55Z) - Day-to-Night Image Synthesis for Training Nighttime Neural ISPs [39.37467397777888]
夜間画像から夜間画像を合成する手法を提案する。
昼間の画像は簡単に撮影でき、低ノイズで動きのぼかしに苦しむことは滅多にない。
ナイトモードレンダリングのためのニューラルネットワークISPのトレーニングによる合成フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-06-06T16:15:45Z) - Rendering Nighttime Image Via Cascaded Color and Brightness Compensation [22.633061635144887]
我々は、ホワイトバランスとトーンマッピングを専門家がアノテートした高精細な夜間RAW-RGBデータセットを構築した。
次に、色と明るさの補正を行うための2段階NN ISPであるCBUnetを開発する。
実験の結果,従来のISPパイプラインに比べて視覚的品質がよいことがわかった。
論文 参考訳(メタデータ) (2022-04-19T16:15:31Z) - NightLab: A Dual-level Architecture with Hardness Detection for
Segmentation at Night [6.666707251631694]
夜間セグメンテーションフレームワークであるNightLabを提案する。
画像と局所の2段階のモデルであり、各レベルは光適応とセグメンテーションモジュールで構成されている。
NightCityとBDD100Kデータセットの実験では、並行メソッドと比較して、NightLabはステート・オブ・ザ・アート(SoTA)のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2022-04-12T05:50:22Z) - Map-Guided Curriculum Domain Adaptation and Uncertainty-Aware Evaluation
for Semantic Nighttime Image Segmentation [107.33492779588641]
夜間アノテーションを使わずに,日毎のセマンティックセマンティックセマンティクスモデルを適用するためのカリキュラムフレームワークを開発した。
また、夜間画像のセマンティクスの実質的不確実性に対処するための新しい評価フレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-28T16:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。