論文の概要: Translating multispectral imagery to nighttime imagery via conditional
generative adversarial networks
- arxiv url: http://arxiv.org/abs/2001.05848v1
- Date: Sat, 28 Dec 2019 03:20:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 12:45:18.668083
- Title: Translating multispectral imagery to nighttime imagery via conditional
generative adversarial networks
- Title(参考訳): 条件付き生成対向ネットワークによるマルチスペクトル画像と夜間画像の変換
- Authors: Xiao Huang, Dong Xu, Zhenlong Li, Cuizhen Wang
- Abstract要約: 本研究では,マルチスペクトル画像から夜間画像への変換における条件付きジェネレーティブ・アドバイサル・ネットワーク(cGAN)の可能性について検討する。
一般的なcGANフレームワークであるpix2pixが採用され、この翻訳を容易にするために修正された。
追加のソーシャルメディアデータにより、生成された夜間画像は、地上の真実の画像と非常によく似ている。
- 参考スコア(独自算出の注目度): 24.28488767429697
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nighttime satellite imagery has been applied in a wide range of fields.
However, our limited understanding of how observed light intensity is formed
and whether it can be simulated greatly hinders its further application. This
study explores the potential of conditional Generative Adversarial Networks
(cGAN) in translating multispectral imagery to nighttime imagery. A popular
cGAN framework, pix2pix, was adopted and modified to facilitate this
translation using gridded training image pairs derived from Landsat 8 and
Visible Infrared Imaging Radiometer Suite (VIIRS). The results of this study
prove the possibility of multispectral-to-nighttime translation and further
indicate that, with the additional social media data, the generated nighttime
imagery can be very similar to the ground-truth imagery. This study fills the
gap in understanding the composition of satellite observed nighttime light and
provides new paradigms to solve the emerging problems in nighttime remote
sensing fields, including nighttime series construction, light desaturation,
and multi-sensor calibration.
- Abstract(参考訳): 夜間の衛星画像は幅広い分野に応用されている。
しかし、観測された光の強度がどのように形成され、それがシミュレートできるかの理解が限られており、さらなる応用を妨げている。
本研究では,多スペクトル画像から夜間画像への翻訳における条件付き生成逆ネットワーク(cgan)の可能性を検討する。
一般的なcGANフレームワークであるpix2pixが採用され、Landsat 8とVisible Infrared Imaging Radiometer Suite (VIIRS)から派生したグリッド化されたトレーニング画像ペアを使用して、この翻訳を容易にするために修正された。
本研究は,多スペクトルから夜間への翻訳の可能性を示し,さらにソーシャルメディアデータの追加により,生成した夜間画像が地対面画像と非常によく似ていることを示す。
本研究は,衛星観測衛星の夜間光合成のギャップを埋め,夜間の直列構成,光変性,マルチセンサキャリブレーションなどの夜間リモートセンシング分野における課題を解決するための新しいパラダイムを提供する。
関連論文リスト
- Exploring Reliable Matching with Phase Enhancement for Night-time Semantic Segmentation [58.180226179087086]
夜間セマンティックセマンティックセグメンテーションに適した新しいエンドツーエンド最適化手法であるNightFormerを提案する。
具体的には,画素レベルのテクスチャ・エンハンスメント・モジュールを設計し,フェーズ・エンハンスメントとアンプリメント・アテンションとともに階層的にテクスチャ・アウェア機能を取得する。
提案手法は、最先端の夜間セマンティックセグメンテーション手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2024-08-25T13:59:31Z) - Beyond Night Visibility: Adaptive Multi-Scale Fusion of Infrared and
Visible Images [49.75771095302775]
赤外線および可視画像を用いた適応型マルチスケール核融合ネットワーク(AMFusion)を提案する。
まず、赤外画像と可視画像から空間的特徴と意味的特徴を分離し、前者が光分布の調整に使用される。
第2に,事前学習したバックボーンから抽出した検出機能を利用して,意味的特徴の融合を誘導する。
第3に、通常の光強度で融合画像を制約する新しい照明損失を提案する。
論文 参考訳(メタデータ) (2024-03-02T03:52:07Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - Nighttime Thermal Infrared Image Colorization with Feedback-based Object
Appearance Learning [27.58748298687474]
フィードバックに基づくオブジェクト外観学習(FoalGAN)を取り入れた生成的対向ネットワークを提案する。
FoalGANは、小さなオブジェクトの外観学習に有効であるが、意味保存とエッジ整合性の点で、他の画像翻訳方法よりも優れている。
論文 参考訳(メタデータ) (2023-10-24T09:59:55Z) - Disentangled Contrastive Image Translation for Nighttime Surveillance [87.03178320662592]
夜間監視は、照明の悪さと厳しい人間のアノテーションによる劣化に悩まされる。
既存の手法では、暗黒の物体を知覚するためにマルチスペクトル画像が使われており、解像度の低さと色の不在に悩まされている。
夜間監視の究極の解決策は、夜から昼までの翻訳(Night2Day)である、と私たちは主張する。
本論文は、夜間監視研究を支援する6つのシーンを含む、NightSuRと呼ばれる新しい監視データセットに貢献する。
論文 参考訳(メタデータ) (2023-07-11T06:40:27Z) - Boosting Night-time Scene Parsing with Learnable Frequency [53.05778451012621]
NTSP(Night-Time Scene Parsing)は多くの視覚アプリケーション、特に自律運転に必須である。
既存の手法のほとんどは日中シーン解析のために提案されている。
提案手法は,NightCity,NightCity+およびBDD100K-nightデータセットの最先端手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2022-08-30T13:09:59Z) - Let There be Light: Improved Traffic Surveillance via Detail Preserving
Night-to-Day Transfer [19.33490492872067]
画像翻訳手法を用いて,物体検出時の精度低下を悪条件に緩和する枠組みを提案する。
本稿では,GAN(Generative Adversarial Networks)による詳細な汚職を緩和するために,Kernel Prediction Network (KPN) を用いた夜間・昼間の画像翻訳の改良手法を提案する。
論文 参考訳(メタデータ) (2021-05-11T13:18:50Z) - Thermal Infrared Image Colorization for Nighttime Driving Scenes with
Top-Down Guided Attention [14.527765677864913]
toP-down attEntion and gRadient aLignment based GAN(PearlGAN)を提案する。
トップダウンガイドアテンションモジュールと精巧なアテンションロスは、翻訳中の意味的エンコーディングの曖昧さを減らすために最初に設計されている。
さらに、FLIRおよびKAISTデータセットのサブセット上で画素レベルのアノテーションを行い、複数の翻訳手法のセマンティックな保存性能を評価する。
論文 参考訳(メタデータ) (2021-04-29T14:35:25Z) - NightVision: Generating Nighttime Satellite Imagery from Infra-Red
Observations [0.6127835361805833]
この研究は、U-Netベースのアーキテクチャを用いて、深層学習をうまく適用して可視画像を作成する方法を示す。
提案手法は, 構造類似度指標(SSIM)を独立テストセットで最大86%達成し, 有望な結果を示す。
論文 参考訳(メタデータ) (2020-11-13T16:55:46Z) - Nighttime Dehazing with a Synthetic Benchmark [147.21955799938115]
昼間の鮮明な画像から夜間のハズイ画像をシミュレートする3Rという新しい合成法を提案する。
実空間の光色を以前の経験的分布からサンプリングすることにより,現実的な夜間ハズイ画像を生成する。
実験結果は、画像の品質と実行時間の両方の観点から、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-10T02:16:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。