論文の概要: Removal of clouds from satellite images using time compositing techniques
- arxiv url: http://arxiv.org/abs/2410.08223v1
- Date: Thu, 26 Sep 2024 05:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 04:36:03.729852
- Title: Removal of clouds from satellite images using time compositing techniques
- Title(参考訳): 時間合成法による衛星画像からの雲の除去
- Authors: Atma Bharathi Mani, Nagashree TR, Manavalan P, Diwakar PG,
- Abstract要約: 時間合成の2つの異なるアプローチがテストされた。
すべての構成画像上の永続的な雲は、両方の方法で保持された。
クラウドを255に再コードし、'min'関数を実行するハイブリッド技術が開発された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clouds in satellite images are a deterrent to qualitative and quantitative study. Time compositing methods compare a series of co-registered images and retrieve only those pixels that have comparatively lesser cloud cover for the resultant image. Two different approaches of time compositing were tested. The first method recoded the clouds to value 0 on all the constituent images and ran a 'max' function. The second method directly ran a 'min' function without recoding on all the images for the resultant image. The 'max' function gave a highly mottled image while the 'min' function gave a superior quality image with smoother texture. Persistent clouds on all constituent images were retained in both methods, but they were readily identifiable and easily extractable in the 'max' function image as they were recoded to 0, while that in the 'min' function appeared with varying DN values. Hence a hybrid technique was created which recodes the clouds to value 255 and runs a 'min' function. This method preserved the quality of the 'min' function and the advantage of retrieving clouds as in the 'max' function image. The models were created using Erdas Imagine Modeler 9.1 and MODIS 250 m resolution images of coastal Karnataka in the months of May, June 2008 were used. A detailed investigation on the different methods is described and scope for automating different techniques is discussed.
- Abstract(参考訳): 衛星画像の雲は定性的かつ定量的な研究の抑止力である。
時間合成法は、一連の登録された画像を比較し、結果として得られる画像に対して比較的少ない雲のカバーを持つピクセルのみを検索する。
時間合成の2つの異なるアプローチがテストされた。
最初の方法は、雲をすべての構成イメージの0に再符号化し、'max'関数を実行した。
第2の方法は、結果のイメージのすべてのイメージを書き換えることなく、直接「min」関数を実行した。
最大」の関数は、高度に湿ったイメージを与える一方、「最小」の関数は、より滑らかなテクスチャで優れた画質のイメージを与える。
すべての構成画像上に持続する雲はいずれの方法にも保持されたが、それらは容易に識別可能で、0に復号されるときに'max'関数画像から抽出可能であり、"min'関数には様々なDN値が現れる。
そのため、クラウドを255に再コードし、"min"関数を実行するハイブリッド技術が開発された。
本手法は,「min」関数の品質と「max」関数画像のように雲を回収する利点を保存した。
このモデルは、2008年5月の海岸カルナタカのErdas Imagine Modeler 9.1とMODIS 250m解像度画像を用いて作成された。
異なる手法について詳細な調査を行い、異なる手法を自動化するためのスコープについて論じる。
関連論文リスト
- Multi-Feature Aggregation in Diffusion Models for Enhanced Face Super-Resolution [6.055006354743854]
超解像を生成するために,複数の低画質画像から抽出した特徴と組み合わせた低解像度画像を利用するアルゴリズムを開発した。
他のアルゴリズムとは異なり、我々のアプローチは属性情報を明示的に提供せずに顔の特徴を復元する。
これは、高解像度画像と低解像度画像を組み合わせて、より信頼性の高い超高解像度画像を生成するコンディショナーとして初めて使用される。
論文 参考訳(メタデータ) (2024-08-27T20:08:33Z) - DiffCR: A Fast Conditional Diffusion Framework for Cloud Removal from
Optical Satellite Images [27.02507384522271]
本稿では,光衛星画像の高速クラウド除去に深部畳み込みネットワークを用いた条件付き拡散を利用したDiffCRという新しいフレームワークを提案する。
条件付き特徴抽出のための分離エンコーダを導入し、条件付き入力と合成出力との外観情報の密接な類似性を確保するために、ロバストな色表現を提供する。
論文 参考訳(メタデータ) (2023-08-08T17:34:28Z) - Single Image Deraining via Feature-based Deep Convolutional Neural
Network [13.39233717329633]
データ駆動型アプローチとモデルベースアプローチを組み合わせた,単一画像デラミニングアルゴリズムを提案する。
実験の結果,提案アルゴリズムは質的,定量的両面で最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-05-03T13:12:51Z) - CoordFill: Efficient High-Resolution Image Inpainting via Parameterized
Coordinate Querying [52.91778151771145]
本稿では,近年の連続的暗黙表現の発達により,その限界を初めて破ろうとする。
実験の結果,提案手法はGTX 2080 Ti GPUを用いて2048$times$2048の画像をリアルタイムに処理できることがわかった。
論文 参考訳(メタデータ) (2023-03-15T11:13:51Z) - Differentiable Point-Based Radiance Fields for Efficient View Synthesis [57.56579501055479]
本稿では,効率的な新規ビュー合成のための微分可能レンダリングアルゴリズムを提案する。
我々の手法は、トレーニングと推論の両方において、NeRFよりも最大300倍高速である。
ダイナミックなシーンでは,STNeRFよりも2桁早く,ほぼインタラクティブなレートでレンダリングを行う。
論文 参考訳(メタデータ) (2022-05-28T04:36:13Z) - View Synthesis with Sculpted Neural Points [64.40344086212279]
暗黙の神経表現は印象的な視覚的品質を達成したが、計算効率に欠点がある。
本稿では,点雲を用いたビュー合成を行う新しい手法を提案する。
レンダリング速度を100倍以上速くしながら、NeRFよりも視覚的品質を向上する最初のポイントベース手法である。
論文 参考訳(メタデータ) (2022-05-12T03:54:35Z) - Spatial-Separated Curve Rendering Network for Efficient and
High-Resolution Image Harmonization [59.19214040221055]
本稿では,空間分離型曲線描画ネットワーク(S$2$CRNet)を提案する。
提案手法は従来の手法と比較して90%以上のパラメータを減少させる。
提案手法は,既存の手法よりも10ドル以上高速な高解像度画像をリアルタイムにスムーズに処理することができる。
論文 参考訳(メタデータ) (2021-09-13T07:20:16Z) - Bridging Composite and Real: Towards End-to-end Deep Image Matting [88.79857806542006]
画像マッチングにおける意味論と細部の役割について検討する。
本稿では,共有エンコーダと2つの分離デコーダを用いた新しいGlance and Focus Matting Network(GFM)を提案する。
総合的な実証研究により、GFMは最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2020-10-30T10:57:13Z) - Thick Cloud Removal of Remote Sensing Images Using Temporal Smoothness
and Sparsity-Regularized Tensor Optimization [3.65794756599491]
リモートセンシング画像では、雲の影に付随する厚い雲の存在が確率の高い事象である。
時間的滑らか度と空間規則化テンソル最適化に基づくリモートセンシング画像の高密度クラウド除去手法を提案する。
論文 参考訳(メタデータ) (2020-08-11T05:59:20Z) - Single Image Brightening via Multi-Scale Exposure Fusion with Hybrid
Learning [48.890709236564945]
小さいISOと小さな露光時間は、通常、背面または低い光条件下で画像をキャプチャするために使用される。
本稿では、そのような画像を明るくするために、単一の画像輝度化アルゴリズムを提案する。
提案アルゴリズムは,露出時間が大きい2つの仮想画像を生成するための,ユニークなハイブリッド学習フレームワークを含む。
論文 参考訳(メタデータ) (2020-07-04T08:23:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。