論文の概要: DiffCR: A Fast Conditional Diffusion Framework for Cloud Removal from
Optical Satellite Images
- arxiv url: http://arxiv.org/abs/2308.04417v1
- Date: Tue, 8 Aug 2023 17:34:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 11:46:30.492487
- Title: DiffCR: A Fast Conditional Diffusion Framework for Cloud Removal from
Optical Satellite Images
- Title(参考訳): DiffCR:光学衛星画像からの雲除去のための高速条件拡散フレームワーク
- Authors: Xuechao Zou, Kai Li, Junliang Xing, Yu Zhang, Shiying Wang, Lei Jin,
and Pin Tao
- Abstract要約: 本稿では,光衛星画像の高速クラウド除去に深部畳み込みネットワークを用いた条件付き拡散を利用したDiffCRという新しいフレームワークを提案する。
条件付き特徴抽出のための分離エンコーダを導入し、条件付き入力と合成出力との外観情報の密接な類似性を確保するために、ロバストな色表現を提供する。
- 参考スコア(独自算出の注目度): 27.02507384522271
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical satellite images are a critical data source; however, cloud cover
often compromises their quality, hindering image applications and analysis.
Consequently, effectively removing clouds from optical satellite images has
emerged as a prominent research direction. While recent advancements in cloud
removal primarily rely on generative adversarial networks, which may yield
suboptimal image quality, diffusion models have demonstrated remarkable success
in diverse image-generation tasks, showcasing their potential in addressing
this challenge. This paper presents a novel framework called DiffCR, which
leverages conditional guided diffusion with deep convolutional networks for
high-performance cloud removal for optical satellite imagery. Specifically, we
introduce a decoupled encoder for conditional image feature extraction,
providing a robust color representation to ensure the close similarity of
appearance information between the conditional input and the synthesized
output. Moreover, we propose a novel and efficient time and condition fusion
block within the cloud removal model to accurately simulate the correspondence
between the appearance in the conditional image and the target image at a low
computational cost. Extensive experimental evaluations on two commonly used
benchmark datasets demonstrate that DiffCR consistently achieves
state-of-the-art performance on all metrics, with parameter and computational
complexities amounting to only 5.1% and 5.4%, respectively, of those previous
best methods. The source code, pre-trained models, and all the experimental
results will be publicly available at https://github.com/XavierJiezou/DiffCR
upon the paper's acceptance of this work.
- Abstract(参考訳): 光衛星画像は重要なデータソースであるが、雲は品質を損なうことが多く、画像の応用や分析を妨げている。
その結果、光学衛星画像から雲を効果的に除去する研究の方向性が明らかになってきた。
クラウド除去の最近の進歩は、主に最適な画像品質をもたらす可能性のある生成的逆ネットワークに依存しているが、拡散モデルは、様々な画像生成タスクにおいて顕著な成功を示しており、この課題に対処できる可能性を示している。
本稿では,光衛星画像の高速クラウド除去に深部畳み込みネットワークを用いた条件付き拡散を利用したDiffCRという新しいフレームワークを提案する。
具体的には、条件付き画像特徴抽出のための分離エンコーダを導入し、条件付き入力と合成出力との外観情報の密接な類似性を保証する頑健な色表現を提供する。
また,雲の除去モデルにおいて,条件画像の出現と目標画像との対応性を計算コストで正確にシミュレートする,新しい,効率的な時間と条件の融合ブロックを提案する。
2つの一般的なベンチマークデータセットに対する大規模な実験的評価は、DiffCRが全ての指標で常に最先端のパフォーマンスを達成しており、パラメータと計算の複雑さはそれぞれ、以前のベストメソッドの5.1%と5.4%であることを示している。
ソースコード、事前トレーニングされたモデル、および実験結果は、この論文が受け入れられた時点でhttps://github.com/XavierJiezou/DiffCRで公開されている。
関連論文リスト
- Edge-Cloud Collaborative Satellite Image Analysis for Efficient Man-Made Structure Recognition [2.110762118285028]
本稿では,エッジとクラウドコンピューティングを組み合わせた新しい衛星画像処理アーキテクチャを提案する。
エッジに軽量モデルを採用することで、当初は衛星画像から人造構造を特定できる。
これらの識別された画像はクラウドに送信され、より複雑なモデルによって分類が洗練される。
論文 参考訳(メタデータ) (2024-10-08T03:31:32Z) - IDF-CR: Iterative Diffusion Process for Divide-and-Conquer Cloud Removal in Remote-sensing Images [55.40601468843028]
雲除去のための反復拡散過程(IDF-CR)を提案する。
IDF-CRは、ピクセル空間と潜在空間に対処する2段階のモデルに分けられる。
潜時空間の段階では、拡散モデルは低品質の雲の除去を高品質のクリーンな出力に変換する。
論文 参考訳(メタデータ) (2024-03-18T15:23:48Z) - Diffusion Enhancement for Cloud Removal in Ultra-Resolution Remote
Sensing Imagery [48.14610248492785]
雲層は、光学リモートセンシング(RS)画像の品質と効果を著しく損なう。
既存のディープラーニング(DL)ベースのクラウド削除(CR)技術は、元の視覚的正当性と画像の詳細なセマンティック内容の正確な再構築に困難を伴う。
この課題に対処するために、データと方法論の面での強化を提案する。
論文 参考訳(メタデータ) (2024-01-25T13:14:17Z) - CLiSA: A Hierarchical Hybrid Transformer Model using Orthogonal Cross
Attention for Satellite Image Cloud Segmentation [5.178465447325005]
ディープラーニングアルゴリズムは画像セグメンテーション問題を解決するための有望なアプローチとして登場してきた。
本稿では,Lipschitz Stable Attention NetworkによるCLiSA - Cloudセグメンテーションという,効果的なクラウドマスク生成のためのディープラーニングモデルを提案する。
Landsat-8, Sentinel-2, Cartosat-2sを含む複数の衛星画像データセットの質的および定量的な結果を示す。
論文 参考訳(メタデータ) (2023-11-29T09:31:31Z) - Deep Equilibrium Diffusion Restoration with Parallel Sampling [120.15039525209106]
拡散モデルに基づく画像復元(IR)は、拡散モデルを用いて劣化した画像から高品質な(本社)画像を復元し、有望な性能を達成することを目的としている。
既存のほとんどの手法では、HQイメージをステップバイステップで復元するために長いシリアルサンプリングチェーンが必要であるため、高価なサンプリング時間と高い計算コストがかかる。
本研究では,拡散モデルに基づくIRモデルを異なる視点,すなわちDeqIRと呼ばれるDeQ(Deep equilibrium)固定点系で再考することを目的とする。
論文 参考訳(メタデータ) (2023-11-20T08:27:56Z) - ExposureDiffusion: Learning to Expose for Low-light Image Enhancement [87.08496758469835]
この研究は、拡散モデルと物理ベースの露光モデルとをシームレスに統合することで、この問題に対処する。
提案手法は,バニラ拡散モデルと比較して性能が大幅に向上し,推論時間を短縮する。
提案するフレームワークは、実際のペア付きデータセット、SOTAノイズモデル、および異なるバックボーンネットワークの両方で動作する。
論文 参考訳(メタデータ) (2023-07-15T04:48:35Z) - Denoising Diffusion Models for Plug-and-Play Image Restoration [135.6359475784627]
本稿では,従来のプラグアンドプレイ方式を拡散サンプリングフレームワークに統合したDiffPIRを提案する。
DiffPIRは、差別的なガウスのデノイザーに依存するプラグアンドプレイIR法と比較して、拡散モデルの生成能力を継承することが期待されている。
論文 参考訳(メタデータ) (2023-05-15T20:24:38Z) - Dual-Scale Single Image Dehazing Via Neural Augmentation [29.019279446792623]
モデルベースとデータ駆動のアプローチを組み合わせることで,新しい単一画像デハージングアルゴリズムを導入する。
その結果,提案アルゴリズムは実世界および合成ヘイズ画像からヘイズをうまく除去できることが示唆された。
論文 参考訳(メタデータ) (2022-09-13T11:56:03Z) - ART-SS: An Adaptive Rejection Technique for Semi-Supervised restoration
for adverse weather-affected images [24.03416814412226]
SSR法の性能に及ぼすラベルなしデータの影響について検討する。
性能を劣化させる未ラベル画像の拒否を行う手法を開発した。
論文 参考訳(メタデータ) (2022-03-17T12:00:31Z) - Unpaired Quad-Path Cycle Consistent Adversarial Networks for Single
Image Defogging [16.59494337699748]
本研究では, クアッドパスサイクル一貫した対向ネットワーク (QPC-Net) という, 新たな対向ネットワークを構築した。
QPC-NetはFog2FogfreeブロックとFogfree2Fogブロックで構成される。
QPC-Netは、定量的精度と主観的視覚的品質の観点から、最先端のデファジグ手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-19T09:00:37Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。