論文の概要: Lighting the Night with Generative Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2506.22511v2
- Date: Fri, 11 Jul 2025 12:03:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 14:01:06.089916
- Title: Lighting the Night with Generative Artificial Intelligence
- Title(参考訳): 次世代人工知能で夜を照らす
- Authors: Tingting Zhou, Feng Zhang, Haoyang Fu, Baoxiang Pan, Renhe Zhang, Feng Lu, Zhixin Yang,
- Abstract要約: 夜間の可視光の欠如により、可視光反射データを用いて日中連続的な気象観測を行うことは不可能である。
我々は,0.47mumathrmm,0.65mumathrmm,0.825mumathrmm帯の夜間可視光反射発生を可能にするRefDiffと呼ばれる高精度可視光反射生成モデルを開発した。
- 参考スコア(独自算出の注目度): 12.565202991911411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The visible light reflectance data from geostationary satellites is crucial for meteorological observations and plays an important role in weather monitoring and forecasting. However, due to the lack of visible light at night, it is impossible to conduct continuous all-day weather observations using visible light reflectance data. This study pioneers the use of generative diffusion models to address this limitation. Based on the multi-band thermal infrared brightness temperature data from the Advanced Geostationary Radiation Imager (AGRI) onboard the Fengyun-4B (FY4B) geostationary satellite, we developed a high-precision visible light reflectance generative model, called Reflectance Diffusion (RefDiff), which enables 0.47~\mu\mathrm{m}, 0.65~\mu\mathrm{m}, and 0.825~\mu\mathrm{m} bands visible light reflectance generation at night. Compared to the classical models, RefDiff not only significantly improves accuracy through ensemble averaging but also provides uncertainty estimation. Specifically, the SSIM index of RefDiff can reach 0.90, with particularly significant improvements in areas with complex cloud structures and thick clouds. The model's nighttime generation capability was validated using VIIRS nighttime product, demonstrating comparable performance to its daytime counterpart. In summary, this research has made substantial progress in the ability to generate visible light reflectance at night, with the potential to expand the application of nighttime visible light data.
- Abstract(参考訳): 静止衛星からの可視光反射データは気象観測に不可欠であり、気象観測や予報において重要な役割を果たしている。
しかし、夜間の可視光の欠如により、可視光反射データを用いて日中連続的な気象観測を行うことは不可能である。
本研究は、この制限に対処するための生成拡散モデルの使用の先駆者である。
我々は,Fengyun-4B (FY4B) 静止衛星搭載の高次測地線画像(AGRI)から得られた多バンド熱赤外温度データに基づいて,夜間の可視光反射率を0.47〜\mu\mathrm{m},0.65〜\mu\mathrm{m},0.825〜\mu\mathrm{m} で観測できる高精度可視光反射率生成モデルを開発した。
古典モデルと比較して、RefDiffはアンサンブル平均化によって精度を著しく向上するだけでなく、不確実性の推定も提供する。
具体的には、RefDiffのSSIMインデックスは0.90に達し、特に複雑な雲の構造と厚い雲を持つ領域で顕著に改善されている。
モデルが夜間に生成する能力は、VIIRSの夜間製品を使用して検証され、昼間と同等の性能を示した。
要約すると、この研究は夜間に可視光反射を発生させる能力を大幅に進歩させ、夜間可視光データの適用を拡大する可能性を秘めている。
関連論文リスト
- The Devil is in the Darkness: Diffusion-Based Nighttime Dehazing Anchored in Brightness Perception [58.895000127068194]
本稿では,Diffusion-based Nighttime Dehazingフレームワークについて紹介する。
輝度知覚ネットワークによって導かれる事前学習拡散モデルを統合する復元モデルを提案する。
実験では、データセットの有用性と、ジョイントヘイズ除去と輝度マッピングにおけるモデルの優れたパフォーマンスを検証する。
論文 参考訳(メタデータ) (2025-06-03T03:21:13Z) - DiffSR: Learning Radar Reflectivity Synthesis via Diffusion Model from Satellite Observations [42.635670495018964]
我々はDiffSRと呼ばれる2段階拡散法を提案し、高周波の詳細と高値領域を生成する。
提案手法は, 最新技術(SOTA)の成果を達成し, 高周波の細部と高値領域を生成できることを実証する。
論文 参考訳(メタデータ) (2024-11-11T04:50:34Z) - A Semi-supervised Nighttime Dehazing Baseline with Spatial-Frequency Aware and Realistic Brightness Constraint [19.723367790947684]
実世界における夜間脱ハージングのための半教師付きモデルを提案する。
まず、空間的注意と周波数スペクトルフィルタリングを、空間周波数領域情報相互作用モジュールとして実装する。
第2に、半教師付きトレーニングプロセスにおける擬似ラベルに基づくリトレーニング戦略と局所窓ベースの輝度損失は、迷路や光を抑制するように設計されている。
論文 参考訳(メタデータ) (2024-03-27T13:27:02Z) - Beyond Night Visibility: Adaptive Multi-Scale Fusion of Infrared and
Visible Images [49.75771095302775]
赤外線および可視画像を用いた適応型マルチスケール核融合ネットワーク(AMFusion)を提案する。
まず、赤外画像と可視画像から空間的特徴と意味的特徴を分離し、前者が光分布の調整に使用される。
第2に,事前学習したバックボーンから抽出した検出機能を利用して,意味的特徴の融合を誘導する。
第3に、通常の光強度で融合画像を制約する新しい照明損失を提案する。
論文 参考訳(メタデータ) (2024-03-02T03:52:07Z) - Simulating Nighttime Visible Satellite Imagery of Tropical Cyclones Using Conditional Generative Adversarial Networks [10.76837828367292]
可視光(VIS)画像は熱帯サイクロン(TC)の監視に重要であるが、夜間は利用できない。
本研究では,夜間のVIS画像を生成するために,CGAN(Conditional Generative Adversarial Networks)モデルを提案する。
論文 参考訳(メタデータ) (2024-01-22T03:44:35Z) - From Generation to Suppression: Towards Effective Irregular Glow Removal
for Nighttime Visibility Enhancement [22.565044107631696]
既存の低照度画像強調法 (LLIE) は、主に暗黒領域の明るさを改善するために設計されている。
これらの手法は、他の大きな視界の損傷である、夜間の夜景における光の影響を限定的に探究することができる。
大気点拡散関数(APSF)に基づく多重散乱推定による物理光発生の学習法を提案する。
提案手法はゼロショット学習に基づいており、ペアやアンペアのトレーニングデータに頼らず、光抑制と低照度強化の両方において提案手法の有効性を実証的に評価する。
論文 参考訳(メタデータ) (2023-07-31T15:51:15Z) - Flare7K++: Mixing Synthetic and Real Datasets for Nighttime Flare
Removal and Beyond [77.72043833102191]
962個の実撮影フレア画像(Flare-R)と7000個の合成フレア画像(Flare7K)からなる夜間フレア除去データセットを初めて導入する。
Flare7Kと比較して、Frare7K++は、合成フレアのみを使用することで、光源周辺の複雑な劣化を取り除くのに特に効果的である。
この問題に対処するために、Frare7K++で光源のアノテーションを付加し、レンズフレアを除去しながら光源を保存するための新しいエンドツーエンドパイプラインを提案する。
論文 参考訳(メタデータ) (2023-06-07T08:27:44Z) - Nighttime Smartphone Reflective Flare Removal Using Optical Center
Symmetry Prior [81.64647648269889]
反射フレア(英: Reflective flare)は、レンズの内部に光が反射し、明るい点や「ゴースト効果」を引き起こす現象である。
我々は、反射フレアと光源が常にレンズの光学中心の周囲に対称であることを示す光中心対称性を事前に提案する。
多様なリアルな反射フレアパターンを含むブラケットフレアと呼ばれる最初の反射フレア除去データセットを作成します。
論文 参考訳(メタデータ) (2023-03-27T09:44:40Z) - Flare7K: A Phenomenological Nighttime Flare Removal Dataset [83.38205781536578]
最初の夜間フレア除去データセットであるFrare7Kを紹介する。
25種類の散乱フレアと10種類の反射フレアからなる、5,000個の散乱と2,000個の反射フレア画像を提供する。
ペア化されたデータにより、現実世界で撮影されたフレア崩壊画像の復元を効果的に行うことができる。
論文 参考訳(メタデータ) (2022-10-12T20:17:24Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Predicting Landsat Reflectance with Deep Generative Fusion [2.867517731896504]
公共の衛星ミッションは一般に、空間分解能と時間分解能のトレードオフに結びついている。
これにより、植生の監視や人道的行動を支援する能力が損なわれる。
空間的・時間的特性の異なる製品を融合させて高解像度の光学画像を生成するための深部生成モデルの可能性を探る。
論文 参考訳(メタデータ) (2020-11-09T21:06:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。