論文の概要: An U-Net-Based Deep Neural Network for Cloud Shadow and Sun-Glint Correction of Unmanned Aerial System (UAS) Imagery
- arxiv url: http://arxiv.org/abs/2509.08949v1
- Date: Wed, 10 Sep 2025 19:19:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.121274
- Title: An U-Net-Based Deep Neural Network for Cloud Shadow and Sun-Glint Correction of Unmanned Aerial System (UAS) Imagery
- Title(参考訳): U-Net-based Deep Neural Network for Cloud Shadow and Sun-Glint Correction of Unmanned Aerial System (UAS) Imagery
- Authors: Yibin Wang, Wondimagegn Beshah, Padmanava Dash, Haifeng Wang,
- Abstract要約: 本研究は,雲影と太陽輝きのある領域を識別・抽出する新しい機械学習手法を提案する。
データは、U-Netベースのディープラーニングモデルをトレーニングするために、ピクセルレベルの画像から抽出された。
画像中の雲の影と太陽の輝き領域を復元するために,高品質な画像補正モデルが決定された。
- 参考スコア(独自算出の注目度): 8.771946849115439
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of unmanned aerial systems (UASs) has increased tremendously in the current decade. They have significantly advanced remote sensing with the capability to deploy and image the terrain as per required spatial, spectral, temporal, and radiometric resolutions for various remote sensing applications. One of the major advantages of UAS imagery is that images can be acquired in cloudy conditions by flying the UAS under the clouds. The limitation to the technology is that the imagery is often sullied by cloud shadows. Images taken over water are additionally affected by sun glint. These are two pose serious issues for estimating water quality parameters from the UAS images. This study proposes a novel machine learning approach first to identify and extract regions with cloud shadows and sun glint and separate such regions from non-obstructed clear sky regions and sun-glint unaffected regions. The data was extracted from the images at pixel level to train an U-Net based deep learning model and best settings for model training was identified based on the various evaluation metrics from test cases. Using this evaluation, a high-quality image correction model was determined, which was used to recover the cloud shadow and sun glint areas in the images.
- Abstract(参考訳): 無人航空システム(UAS)の利用は、この10年間で著しく増加している。
リモートセンシングは、様々なリモートセンシングアプリケーションのために、必要な空間、スペクトル、時間、および放射能の解像度に応じて、地形を配置し、画像化する能力で、かなり進歩したリモートセンシングである。
UAS画像の大きな利点の1つは、雲の下にUASを飛ばすことで、雲の状態で画像を取得することができることである。
この技術の限界は、画像がしばしば雲の影に悩まされていることだ。
水上で撮影された画像は、さらに太陽の輝きに影響を受けます。
これらの2つは、UAS画像から水質パラメータを推定するための深刻な問題である。
本研究では,まず雲影と太陽光の領域を特定し抽出し,その領域を非障害物空域と太陽光の影響を受けない領域から分離する機械学習手法を提案する。
データを画素レベルの画像から抽出し,U-Netに基づくディープラーニングモデルをトレーニングし,テストケースからのさまざまな評価指標に基づいて,モデルトレーニングのための最適設定を同定した。
この評価により,画像中の雲の影と太陽の輝き領域を復元する高品質な画像補正モデルが決定された。
関連論文リスト
- SatFlow: Generative model based framework for producing High Resolution Gap Free Remote Sensing Imagery [0.0]
SatFlowは低分解能MODIS画像とランドサット観測を融合して高分解能・高分解能表面反射率画像を生成する生成モデルベースフレームワークである。
条件付きフローマッチングを用いて学習した本モデルでは, 構造的・スペクトル的整合性のある画像の生成性能が向上した。
この機能は、作物のフェノロジー追跡や環境変化検出など、下流のアプリケーションに不可欠である。
論文 参考訳(メタデータ) (2025-02-03T06:40:13Z) - Real-Time Multi-Scene Visibility Enhancement for Promoting Navigational Safety of Vessels Under Complex Weather Conditions [48.529493393948435]
この可視光カメラは、インテリジェントな水上輸送システムにおいて、海洋表面の容器に不可欠なイメージングセンサーとして登場した。
視覚画像の画質は、複雑な気象条件下での様々な劣化に必然的に悩まされる。
本研究では,異なる気象条件下で撮影された劣化画像を復元する汎用多場面可視性向上手法を開発した。
論文 参考訳(メタデータ) (2024-09-02T23:46:27Z) - Removing cloud shadows from ground-based solar imagery [0.33748750222488655]
本稿では,U-Netアーキテクチャに基づくクラウドシャドウの除去手法を提案し,古典的監視と条件付きGANを比較した。
我々は,実画像と合成雲の新しいデータセットを用いて,2つの異なる画像モダリティについて評価を行った。
論文 参考訳(メタデータ) (2024-07-18T10:38:24Z) - Few-shot point cloud reconstruction and denoising via learned Guassian splats renderings and fine-tuned diffusion features [52.62053703535824]
本稿では,少数の画像から点雲を再構成し,そのレンダリングから点雲を識別する手法を提案する。
制約条件下での再構成を改善するため,ハイブリッド表面と外観の相違点のトレーニングを規則化する。
これらの学習したフィルタを使って、3Dの監督なしに来る点雲ノイズを除去する方法を実証する。
論文 参考訳(メタデータ) (2024-04-01T13:38:16Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Boosting Point Clouds Rendering via Radiance Mapping [49.24193509772339]
コンパクトなモデル設計でポイントクラウドレンダリングの画質向上に重点を置いている。
我々はNeRF表現を1ピクセルあたりの単一評価しか必要としない空間マッピング関数に単純化する。
提案手法は点雲上での最先端のレンダリングを実現し,先行研究を顕著なマージンで上回った。
論文 参考訳(メタデータ) (2022-10-27T01:25:57Z) - Seeing Through Clouds in Satellite Images [14.84582204034532]
本稿では,衛星画像中の雲に隠されたピクセルを回復するためのニューラルネットワークベースのソリューションを提案する。
我々は、雲を貫通する超高周波数帯の電波周波数(RF)信号を活用し、マルチスペクトル画像における隠蔽領域の再構成を支援する。
論文 参考訳(メタデータ) (2021-06-15T20:01:27Z) - Non-Homogeneous Haze Removal via Artificial Scene Prior and
Bidimensional Graph Reasoning [52.07698484363237]
本研究では,人工シーンの前置と2次元グラフ推論による不均質なヘイズ除去ネットワーク(nhrn)を提案する。
本手法は,単一画像デハジングタスクとハイザイ画像理解タスクの両方において,最先端アルゴリズムよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2021-04-05T13:04:44Z) - Cloud removal in remote sensing images using generative adversarial
networks and SAR-to-optical image translation [0.618778092044887]
雲の除去は、幅広い衛星画像の応用により、多くの注目を集めている。
本研究では,2つの生成逆ネットワーク(GAN)を用いてこの問題の解決を試みる。
第1はSAR画像を光学画像に変換し、第2は前GANの変換画像を使用して雲を除去する。
論文 参考訳(メタデータ) (2020-12-22T17:19:14Z) - Cloud and Cloud Shadow Segmentation for Remote Sensing Imagery via
Filtered Jaccard Loss Function and Parametric Augmentation [8.37609145576126]
現在の地理空間画像における雲と影の識別法は,特に雪と風の存在下では,それほど正確ではない。
本論文では,ランドサット8号画像における雲・陰影検出のためのディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-23T19:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。