論文の概要: Multi-Head Linear Attention Generative Adversarial Network for Thin
Cloud Removal
- arxiv url: http://arxiv.org/abs/2012.10898v1
- Date: Sun, 20 Dec 2020 11:50:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 04:39:31.963634
- Title: Multi-Head Linear Attention Generative Adversarial Network for Thin
Cloud Removal
- Title(参考訳): 薄雲除去のためのマルチヘッド線形注意生成逆ネットワーク
- Authors: Chenxi Duan, Rui Li
- Abstract要約: 雲の薄い除去はリモートセンシング画像の利用を高めるために欠かせない手順である。
薄層雲除去のためのマルチヘッド線形注意生成ネットワーク(MLAGAN)を提案する。
6つのディープラーニングベースのシンクラウド除去ベンチマークと比較して、RICE1およびRICE2データセットの実験結果は、提案されたフレームワークMLA-GANがシンクラウド除去に優勢であることを示しています。
- 参考スコア(独自算出の注目度): 5.753245638190626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In remote sensing images, the existence of the thin cloud is an inevitable
and ubiquitous phenomenon that crucially reduces the quality of imageries and
limits the scenarios of application. Therefore, thin cloud removal is an
indispensable procedure to enhance the utilization of remote sensing images.
Generally, even though contaminated by thin clouds, the pixels still retain
more or less surface information. Hence, different from thick cloud removal,
thin cloud removal algorithms normally concentrate on inhibiting the cloud
influence rather than substituting the cloud-contaminated pixels. Meanwhile,
considering the surface features obscured by the cloud are usually similar to
adjacent areas, the dependency between each pixel of the input is useful to
reconstruct contaminated areas. In this paper, to make full use of the
dependencies between pixels of the image, we propose a Multi-Head Linear
Attention Generative Adversarial Network (MLAGAN) for Thin Cloud Removal. The
MLA-GAN is based on the encoding-decoding framework consisting of multiple
attention-based layers and deconvolutional layers. Compared with six deep
learning-based thin cloud removal benchmarks, the experimental results on the
RICE1 and RICE2 datasets demonstrate that the proposed framework MLA-GAN has
dominant advantages in thin cloud removal.
- Abstract(参考訳): リモートセンシング画像では、薄い雲の存在は必然的でユビキタスな現象であり、画像の品質を著しく低下させ、アプリケーションのシナリオを制限する。
そのため,薄雲除去はリモートセンシング画像の利用を促進させるには不可欠である。
一般的には、薄い雲で汚染されたとしても、ピクセルは表面情報を多かれ少なかれ保持する。
したがって、厚い雲の除去とは異なり、薄い雲の除去アルゴリズムは通常、雲に汚染されたピクセルの代わりに雲の影響を抑えることに集中する。
一方、雲によって隠された表面の特徴は通常隣接した領域と類似しているため、入力の各ピクセル間の依存性は汚染領域の再構成に有用である。
本稿では,画像の画素間の依存性を最大限に活用するために,雲の薄層除去のためのマルチヘッド線形注意生成逆ネットワーク(mlagan)を提案する。
MLA-GANは、複数の注意層と非畳み込み層からなる符号化・復号化フレームワークに基づいている。
6つのディープラーニングベースの薄雲除去ベンチマークと比較すると、 rice1 と rice2 データセットの実験結果から、提案フレームワークである mla-gan が薄雲除去において優勢であることが分かる。
関連論文リスト
- Rendering-Oriented 3D Point Cloud Attribute Compression using Sparse Tensor-based Transformer [52.40992954884257]
3D視覚化技術は、私たちがデジタルコンテンツと対話する方法を根本的に変えてきた。
ポイントクラウドの大規模データサイズは、データ圧縮において大きな課題を呈している。
そこで我々はPCACと差別化可能なレンダリングをシームレスに統合するエンドツーエンドのディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-12T16:12:51Z) - Point Cloud Compression with Implicit Neural Representations: A Unified Framework [54.119415852585306]
我々は幾何学と属性の両方を扱える先駆的なクラウド圧縮フレームワークを提案する。
本フレームワークでは,2つの座標ベースニューラルネットワークを用いて,voxelized point cloudを暗黙的に表現する。
本手法は,既存の学習手法と比較して,高い普遍性を示す。
論文 参考訳(メタデータ) (2024-05-19T09:19:40Z) - IDF-CR: Iterative Diffusion Process for Divide-and-Conquer Cloud Removal in Remote-sensing Images [55.40601468843028]
雲除去のための反復拡散過程(IDF-CR)を提案する。
IDF-CRは、ピクセル空間と潜在空間に対処する2段階のモデルに分けられる。
潜時空間の段階では、拡散モデルは低品質の雲の除去を高品質のクリーンな出力に変換する。
論文 参考訳(メタデータ) (2024-03-18T15:23:48Z) - Dynamic Association Learning of Self-Attention and Convolution in Image
Restoration [56.49098856632478]
CNNとSelf attentionは、画像修復における自己意識と畳み込みの動的関連学習のためのマルチメディアアプリケーションにおいて大きな成功を収めている。
本稿では,その利点を活かし,その欠点を抑え,高品質で効率的な塗布を実現するためのアソシエーション学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-09T05:11:24Z) - Boosting Point Clouds Rendering via Radiance Mapping [49.24193509772339]
コンパクトなモデル設計でポイントクラウドレンダリングの画質向上に重点を置いている。
我々はNeRF表現を1ピクセルあたりの単一評価しか必要としない空間マッピング関数に単純化する。
提案手法は点雲上での最先端のレンダリングを実現し,先行研究を顕著なマージンで上回った。
論文 参考訳(メタデータ) (2022-10-27T01:25:57Z) - SSPU-Net: Self-Supervised Point Cloud Upsampling via Differentiable
Rendering [21.563862632172363]
地中真理を使わずに高密度の点雲を生成するための自己教師付き点雲アップサンプリングネットワーク(SSPU-Net)を提案する。
これを実現するために,入力スパース点雲と高密度点雲との整合性を利用して画像の形状と描画を行う。
論文 参考訳(メタデータ) (2021-08-01T13:26:01Z) - Cloud removal in remote sensing images using generative adversarial
networks and SAR-to-optical image translation [0.618778092044887]
雲の除去は、幅広い衛星画像の応用により、多くの注目を集めている。
本研究では,2つの生成逆ネットワーク(GAN)を用いてこの問題の解決を試みる。
第1はSAR画像を光学画像に変換し、第2は前GANの変換画像を使用して雲を除去する。
論文 参考訳(メタデータ) (2020-12-22T17:19:14Z) - Cloud Removal for Remote Sensing Imagery via Spatial Attention
Generative Adversarial Network [0.9746724603067647]
リモートセンシング画像雲除去の課題を解決するため,空間注意生成敵ネットワーク (SpA GAN) というモデルを提案する。
SpA GANは人間の視覚機構を模倣し、局所的な空間的注意を伴って雲の領域を認識し、焦点を合わせる。
論文 参考訳(メタデータ) (2020-09-28T02:13:23Z) - Thick Cloud Removal of Remote Sensing Images Using Temporal Smoothness
and Sparsity-Regularized Tensor Optimization [3.65794756599491]
リモートセンシング画像では、雲の影に付随する厚い雲の存在が確率の高い事象である。
時間的滑らか度と空間規則化テンソル最適化に基づくリモートセンシング画像の高密度クラウド除去手法を提案する。
論文 参考訳(メタデータ) (2020-08-11T05:59:20Z) - GRNet: Gridding Residual Network for Dense Point Cloud Completion [54.43648460932248]
完全な3Dポイントクラウドを不完全なクラウドから推定することは、多くのビジョンやロボティクスアプリケーションにおいて重要な問題である。
本稿では,ポイントクラウド補完のための新しいGridding Residual Network(GRNet)を提案する。
実験結果から,提案したGRNetはShapeNet,Completion3D,KITTIベンチマークの最先端手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-06-06T02:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。