論文の概要: FGF-GAN: A Lightweight Generative Adversarial Network for Pansharpening
via Fast Guided Filter
- arxiv url: http://arxiv.org/abs/2101.00062v1
- Date: Thu, 31 Dec 2020 20:27:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 16:59:38.738195
- Title: FGF-GAN: A Lightweight Generative Adversarial Network for Pansharpening
via Fast Guided Filter
- Title(参考訳): FGF-GAN:高速誘導フィルタによるパンシャルペン用軽量生成逆数ネットワーク
- Authors: Zixiang Zhao, Jiangshe Zhang, Shuang Xu, Kai Sun, Lu Huang, Junmin
Liu, Chunxia Zhang
- Abstract要約: 本稿では,高速誘導フィルタ(FGF)を用いたパンシャーピングによる生成対向ネットワークを提案する。
ジェネレータでは、従来のチャネル結合はFGFに置き換えられ、空間情報をよりよく保持する。
我々のネットワークは、既存の手法を超越し、少ないパラメータで高品質なHRMS画像を生成する。
- 参考スコア(独自算出の注目度): 20.075225827771774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pansharpening is a widely used image enhancement technique for remote
sensing. Its principle is to fuse the input high-resolution single-channel
panchromatic (PAN) image and low-resolution multi-spectral image and to obtain
a high-resolution multi-spectral (HRMS) image. The existing deep learning
pansharpening method has two shortcomings. First, features of two input images
need to be concatenated along the channel dimension to reconstruct the HRMS
image, which makes the importance of PAN images not prominent, and also leads
to high computational cost. Second, the implicit information of features is
difficult to extract through the manually designed loss function. To this end,
we propose a generative adversarial network via the fast guided filter (FGF)
for pansharpening. In generator, traditional channel concatenation is replaced
by FGF to better retain the spatial information while reducing the number of
parameters. Meanwhile, the fusion objects can be highlighted by the spatial
attention module. In addition, the latent information of features can be
preserved effectively through adversarial training. Numerous experiments
illustrate that our network generates high-quality HRMS images that can surpass
existing methods, and with fewer parameters.
- Abstract(参考訳): pansharpeningはリモートセンシングに広く使われている画像強調技術である。
その原理は、入力された高分解能単一チャネルパノクロマティック(PAN)画像と低分解能マルチスペクトル像を融合させ、高分解能マルチスペクトル(HRMS)画像を得ることである。
既存のDeep Learning Pansharpening法には2つの欠点がある。
まず、2つの入力画像の特徴をチャネル次元に沿って結合してhrms画像を再構成する必要があるため、pan画像の重要性は顕著ではなく、計算コストも高くなる。
第2に,手動で設計した損失関数から特徴情報を抽出することは困難である。
そこで本研究では,高速誘導フィルタ(FGF)を用いたパンシャーピングによる生成対向ネットワークを提案する。
ジェネレータでは、従来のチャネル結合はFGFに置き換えられ、パラメータの数を減らしながら空間情報をよりよく保持する。
一方、融合オブジェクトは空間的注意モジュールによってハイライトすることができる。
また, 特徴の潜伏情報は, 敵対的訓練によって効果的に保存できる。
多数の実験により、我々のネットワークは既存の手法を超越し、パラメータが少なく、高品質なHRMS画像を生成することを示した。
関連論文リスト
- Panchromatic and Multispectral Image Fusion via Alternating Reverse
Filtering Network [23.74842833472348]
パンシャーペニング(英: Pan-sharpening)とは、空間領域における低分解能(LR)マルチスペクトル(MS)画像の超解像である。
そこで本研究では,パンシャーピングのための簡易かつ効果的なテキスト代替逆フィルタリングネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-15T03:56:05Z) - PC-GANs: Progressive Compensation Generative Adversarial Networks for
Pan-sharpening [50.943080184828524]
空間情報とスペクトル情報の漸進的補償によりMS画像のシャープ化を行うパンシャーピングの新しい2段階モデルを提案する。
モデル全体が三重GANで構成されており、特定のアーキテクチャに基づいて、三重GANを同時に訓練できるように、共同補償損失関数が設計されている。
論文 参考訳(メタデータ) (2022-07-29T03:09:21Z) - Decoupled-and-Coupled Networks: Self-Supervised Hyperspectral Image
Super-Resolution with Subpixel Fusion [67.35540259040806]
サブピクセルレベルのHS超解像フレームワークを提案する。
名前が示すように、DC-Netはまず入力を共通(またはクロスセンサー)とセンサー固有のコンポーネントに分離する。
我々は,CSUネットの裏側に自己教師付き学習モジュールを付加し,素材の整合性を保証し,復元されたHS製品の詳細な外観を向上する。
論文 参考訳(メタデータ) (2022-05-07T23:40:36Z) - Memory-augmented Deep Unfolding Network for Guided Image
Super-resolution [67.83489239124557]
誘導画像超解像(GISR)は、HR画像の誘導の下で低解像度(LR)目標画像の空間分解能を高めて高解像度(HR)目標画像を得る。
従来のモデルベース手法は主に画像全体を取り、HR目標画像とHRガイダンス画像との事前分布を仮定する。
HR目標画像上で2種類の事前性を持つGISRの最大後部(MAP)推定モデルを提案する。
論文 参考訳(メタデータ) (2022-02-12T15:37:13Z) - LDP-Net: An Unsupervised Pansharpening Network Based on Learnable
Degradation Processes [18.139096037746672]
LDP-Netと呼ばれる学習可能な劣化過程に基づく新しい教師なしネットワークを提案する。
ブルーリングブロックとグレーニングブロックは、それぞれ対応する劣化過程を学習するように設計されている。
Worldview2 および Worldview3 画像を用いた実験により,提案した LDP-Net は,HRMS サンプルを使わずに PAN と LRMS 画像を効果的に融合できることを示した。
論文 参考訳(メタデータ) (2021-11-24T13:21:22Z) - Multi-Attention Generative Adversarial Network for Remote Sensing Image
Super-Resolution [17.04588012373861]
画像超解像(SR)法では,空間分解能の高いリモートセンシング画像を生成することができる。
本稿では,GAN(Generative Adversarial Network)に基づく高解像度リモートセンシング画像を生成するネットワークを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:06:19Z) - Hyperspectral Pansharpening Based on Improved Deep Image Prior and
Residual Reconstruction [64.10636296274168]
高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能高分解能化
近年,深層畳み込みネットワーク(ConvNets)を用いたHSパンシャープ法が注目に値する結果を得た。
深層層の増加を抑えることで高レベルの特徴を学習することに焦点を当てた,新しいオーバーコンプリートネットワークHyperKiteを提案する。
論文 参考訳(メタデータ) (2021-07-06T14:11:03Z) - PGMAN: An Unsupervised Generative Multi-adversarial Network for
Pan-sharpening [46.84573725116611]
プリプロセッシングのないフル解像度画像から直接学習する教師なしのフレームワークを提案する。
本研究では,2ストリーム生成器を用いてPAN画像とMS画像からモダリティ固有の特徴を抽出し,融合時に入力のスペクトル情報と空間情報を保存する2重識別器を開発した。
論文 参考訳(メタデータ) (2020-12-16T16:21:03Z) - Hyperspectral Image Super-resolution via Deep Progressive Zero-centric
Residual Learning [62.52242684874278]
空間情報とスペクトル情報の相互モダリティ分布が問題となる。
本稿では,PZRes-Netという,新しいテクスライトウェイトなディープニューラルネットワークベースのフレームワークを提案する。
本フレームワークは,高分解能かつテクテッセロ中心の残像を学習し,シーンの空間的詳細を高頻度で表現する。
論文 参考訳(メタデータ) (2020-06-18T06:32:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。