論文の概要: PGMAN: An Unsupervised Generative Multi-adversarial Network for
Pan-sharpening
- arxiv url: http://arxiv.org/abs/2012.09054v1
- Date: Wed, 16 Dec 2020 16:21:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 02:50:19.886550
- Title: PGMAN: An Unsupervised Generative Multi-adversarial Network for
Pan-sharpening
- Title(参考訳): PGMAN: パンシャーピングのための教師なし生成マルチアドバイザリアルネットワーク
- Authors: Huanyu Zhou and Qingjie Liu and Yunhong Wang
- Abstract要約: プリプロセッシングのないフル解像度画像から直接学習する教師なしのフレームワークを提案する。
本研究では,2ストリーム生成器を用いてPAN画像とMS画像からモダリティ固有の特徴を抽出し,融合時に入力のスペクトル情報と空間情報を保存する2重識別器を開発した。
- 参考スコア(独自算出の注目度): 46.84573725116611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pan-sharpening aims at fusing a low-resolution (LR) multi-spectral (MS) image
and a high-resolution (HR) panchromatic (PAN) image acquired by a satellite to
generate an HR MS image. Many deep learning based methods have been developed
in the past few years. However, since there are no intended HR MS images as
references for learning, almost all of the existing methods down-sample the MS
and PAN images and regard the original MS images as targets to form a
supervised setting for training. These methods may perform well on the
down-scaled images, however, they generalize poorly to the full-resolution
images. To conquer this problem, we design an unsupervised framework that is
able to learn directly from the full-resolution images without any
preprocessing. The model is built based on a novel generative multi-adversarial
network. We use a two-stream generator to extract the modality-specific
features from the PAN and MS images, respectively, and develop a
dual-discriminator to preserve the spectral and spatial information of the
inputs when performing fusion. Furthermore, a novel loss function is introduced
to facilitate training under the unsupervised setting. Experiments and
comparisons with other state-of-the-art methods on GaoFen-2 and QuickBird
images demonstrate that the proposed method can obtain much better fusion
results on the full-resolution images.
- Abstract(参考訳): パンシャーペンは、低分解能(LR)マルチスペクトル(MS)画像と高分解能(HR)パンクロマティック(PAN)画像を衛星が取得してHRMS画像を生成することを目的としている。
近年,多くの深層学習手法が開発されている。
しかしながら、学習の基準としてHRMSイメージが意図されていないため、既存の手法のほとんど全てがMSとPANのイメージをダウンサンプルし、元のMSイメージをターゲットとして、トレーニングのための教師付き設定を形成する。
これらの手法はダウンスケール画像ではうまく機能するが、フル解像度画像では不十分である。
この問題を克服するため,我々は,事前処理することなく全解像度画像から直接学習可能な教師なしフレームワークを設計した。
このモデルは、新しい生成型マルチアドバーサルネットワークに基づいて構築されている。
本研究では,2ストリーム生成器を用いてPAN画像とMS画像からモダリティ固有の特徴を抽出し,融合時に入力のスペクトル情報と空間情報を保存する2重識別器を開発した。
さらに、教師なし設定下でのトレーニングを容易にするために、新たな損失関数を導入する。
GaoFen-2 および QuickBird 画像における他の最先端手法との比較実験により,提案手法がフル解像度画像上でより優れた融合結果を得ることができることを示した。
関連論文リスト
- Variational Zero-shot Multispectral Pansharpening [43.881891055500496]
Pansharpeningは、低空間分解能マルチスペクトル画像(LRMS)とパンクロマチック画像(PAN)を融合させて高空間分解能マルチスペクトル画像(HRMS)を生成することを目的としている。
既存のディープラーニングベースの手法は、多くのトレーニングペアに依存するため、適していない。
最適化対象にニューラルネットワークを導入することにより,ゼロショットパンスハーペン方式を提案する。
論文 参考訳(メタデータ) (2024-07-09T07:59:34Z) - CrossDiff: Exploring Self-Supervised Representation of Pansharpening via
Cross-Predictive Diffusion Model [42.39485365164292]
パンクロマチック (PAN) 画像とそれに対応するマルチスペクトル (MS) 画像の融合は、パンシャーパニング (pansharpening) とも呼ばれる。
高解像度のMS画像がないため、利用可能なディープラーニングベースの手法は通常、縮小解像度でのトレーニングと、縮小解像度と完全解像度の両方でのテストのパラダイムに従う。
そこで本研究では,クロスディフ(CrossDiff)と呼ばれる相互予測拡散モデルの設計により,パンシャルペンの自己制御表現について検討する。
論文 参考訳(メタデータ) (2024-01-10T13:32:47Z) - Learning from Multi-Perception Features for Real-Word Image
Super-resolution [87.71135803794519]
入力画像の複数の知覚的特徴を利用する新しいSR手法MPF-Netを提案する。
本稿では,MPFEモジュールを組み込んで,多様な知覚情報を抽出する手法を提案する。
また、モデルの学習能力を向上する対照的な正規化項(CR)も導入する。
論文 参考訳(メタデータ) (2023-05-26T07:35:49Z) - PC-GANs: Progressive Compensation Generative Adversarial Networks for
Pan-sharpening [50.943080184828524]
空間情報とスペクトル情報の漸進的補償によりMS画像のシャープ化を行うパンシャーピングの新しい2段階モデルを提案する。
モデル全体が三重GANで構成されており、特定のアーキテクチャに基づいて、三重GANを同時に訓練できるように、共同補償損失関数が設計されている。
論文 参考訳(メタデータ) (2022-07-29T03:09:21Z) - Memory-augmented Deep Unfolding Network for Guided Image
Super-resolution [67.83489239124557]
誘導画像超解像(GISR)は、HR画像の誘導の下で低解像度(LR)目標画像の空間分解能を高めて高解像度(HR)目標画像を得る。
従来のモデルベース手法は主に画像全体を取り、HR目標画像とHRガイダンス画像との事前分布を仮定する。
HR目標画像上で2種類の事前性を持つGISRの最大後部(MAP)推定モデルを提案する。
論文 参考訳(メタデータ) (2022-02-12T15:37:13Z) - LDP-Net: An Unsupervised Pansharpening Network Based on Learnable
Degradation Processes [18.139096037746672]
LDP-Netと呼ばれる学習可能な劣化過程に基づく新しい教師なしネットワークを提案する。
ブルーリングブロックとグレーニングブロックは、それぞれ対応する劣化過程を学習するように設計されている。
Worldview2 および Worldview3 画像を用いた実験により,提案した LDP-Net は,HRMS サンプルを使わずに PAN と LRMS 画像を効果的に融合できることを示した。
論文 参考訳(メタデータ) (2021-11-24T13:21:22Z) - Unsupervised Cycle-consistent Generative Adversarial Networks for
Pan-sharpening [41.68141846006704]
本稿では,この問題を緩和するために,基礎的な真理を伴わずに,フルスケールの画像から学習する,教師なしの生成的敵対的枠組みを提案する。
PANおよびMS画像から2ストリーム生成器を用いてモダリティ特異的特徴を抽出し,特徴領域での融合を行い,パンシャープ画像の再構成を行う。
提案手法は,フルスケール画像のパンシャーピング性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-09-20T09:43:24Z) - Fast and High-Quality Blind Multi-Spectral Image Pansharpening [48.68143888901669]
ブラインドパンスハーピングへの迅速なアプローチを提案し、最新の画像再構築品質を実現します。
速い盲目のpansharpeningを達成するために、私達はぼかしのカーネルおよびHRMSのイメージの解決を分離します。
アルゴリズムは計算時間と再構成品質の両面で最先端のモデルベースを上回っている。
論文 参考訳(メタデータ) (2021-03-17T23:12:14Z) - PULSE: Self-Supervised Photo Upsampling via Latent Space Exploration of
Generative Models [77.32079593577821]
PULSE (Photo Upsampling via Latent Space Exploration) は、それまで文献になかった解像度で高解像度でリアルな画像を生成する。
本手法は, 従来よりも高分解能, スケールファクターの知覚品質において, 最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-08T16:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。