論文の概要: Pan-sharpening via High-pass Modification Convolutional Neural Network
- arxiv url: http://arxiv.org/abs/2105.11576v1
- Date: Mon, 24 May 2021 23:39:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 05:49:09.250246
- Title: Pan-sharpening via High-pass Modification Convolutional Neural Network
- Title(参考訳): 高通過変調畳み込みニューラルネットワークによるパンシャーピング
- Authors: Jiaming Wang, Zhenfeng Shao, Xiao Huang, Tao Lu, Ruiqian Zhang, Jiayi
Ma
- Abstract要約: 本稿では,ハイパス修正ブロックに基づく新しいパンシャーピング畳み込みニューラルネットワークを提案する。
提案するブロックは、高域情報を学習し、マルチスペクトル画像の各帯域における空間情報を強化する。
実験により,提案手法の性能を最先端のパンシャーピング法と比較した。
- 参考スコア(独自算出の注目度): 39.295436779920465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most existing deep learning-based pan-sharpening methods have several widely
recognized issues, such as spectral distortion and insufficient spatial texture
enhancement, we propose a novel pan-sharpening convolutional neural network
based on a high-pass modification block. Different from existing methods, the
proposed block is designed to learn the high-pass information, leading to
enhance spatial information in each band of the multi-spectral-resolution
images. To facilitate the generation of visually appealing pan-sharpened
images, we propose a perceptual loss function and further optimize the model
based on high-level features in the near-infrared space. Experiments
demonstrate the superior performance of the proposed method compared to the
state-of-the-art pan-sharpening methods, both quantitatively and qualitatively.
The proposed model is open-sourced at https://github.com/jiaming-wang/HMB.
- Abstract(参考訳): 既存の深層学習に基づくパンシャープ法は, スペクトル歪みや空間テクスチャの不十分さなど, 広く認知されている問題が多く, ハイパス修正ブロックに基づく新しいパンシャープ型畳み込みニューラルネットワークを提案する。
従来の手法と異なり,提案ブロックはハイパス情報を学習するために設計されており,マルチスペクトル画像の各帯域における空間情報を高める。
視覚的に強調された画像の生成を容易にするため,知覚損失関数を提案し,近赤外空間における高レベル特徴に基づくモデルをさらに最適化する。
実験は, 定量的および定性的に, 最先端のパン研削法と比較して, 提案手法の優れた性能を示す。
提案されたモデルはhttps://github.com/jiaming-wang/HMBでオープンソース化されている。
関連論文リスト
- Multi-Frequency-Aware Patch Adversarial Learning for Neural Point Cloud
Rendering [7.522462414919854]
ニューラルポイントクラウドレンダリングパイプラインを、新しいマルチ周波数対応パッチ対向学習フレームワークを通じて提示する。
提案手法は,実画像と合成画像のスペクトル差を最小化することにより,レンダリングの精度を向上させることを目的としている。
提案手法は,ニューラルポイントクラウドレンダリングにおける最先端の結果を有意差で生成する。
論文 参考訳(メタデータ) (2022-10-07T16:54:15Z) - PC-GANs: Progressive Compensation Generative Adversarial Networks for
Pan-sharpening [50.943080184828524]
空間情報とスペクトル情報の漸進的補償によりMS画像のシャープ化を行うパンシャーピングの新しい2段階モデルを提案する。
モデル全体が三重GANで構成されており、特定のアーキテクチャに基づいて、三重GANを同時に訓練できるように、共同補償損失関数が設計されている。
論文 参考訳(メタデータ) (2022-07-29T03:09:21Z) - Enhancing Deep Neural Network Saliency Visualizations with Gradual
Extrapolation [0.0]
Grad-CAMやExcit Backpropagationのようなクラスアクティベーションマッピング手法の拡張手法を提案する。
我々のアイデアはGradual Extrapolationと呼ばれ、出力をシャープすることでヒートマップ画像を生成するメソッドを補うことができる。
論文 参考訳(メタデータ) (2021-04-11T07:39:35Z) - Deep Wiener Deconvolution: Wiener Meets Deep Learning for Image
Deblurring [132.4886971756387]
本稿では,古典的なWienerデコンボリューションフレームワークを学習深い特徴と統合することにより,特徴空間における明示的なデコンボリューションプロセスを提案する。
マルチスケールの機能改善モジュールは、デコンボリュートされた深い特徴からデブロワード画像を予測する。
当社のアプローチは、最新の非盲点画像デブレーション法を広いマージンで定量的に上回る。
論文 参考訳(メタデータ) (2021-03-18T00:38:11Z) - Deep Gradient Projection Networks for Pan-sharpening [20.929492740317915]
本稿では,モデルに基づくディープパンシャーピング手法を提案する。
2つのブロックを積み重ねることで、グラデーションプロジェクションベースのパンスハーピングニューラルネットワークと呼ばれる新しいネットワークが構築される。
さまざまな種類の衛星データセットの実験結果は、新しいネットワークが視覚的および定量的に最先端の方法よりも優れていることを示しています。
論文 参考訳(メタデータ) (2021-03-08T07:51:58Z) - DeepSurfels: Learning Online Appearance Fusion [77.59420353185355]
DeepSurfelsは、ジオメトリと外観情報のための新しいハイブリッドシーン表現です。
確立された表現とは対照的に、DeepSurfelsは高周波テクスチャをよりよく表現する。
私たちはエンドツーエンドのトレーニング可能なオンライン外観融合パイプラインを提示します。
論文 参考訳(メタデータ) (2020-12-28T14:13:33Z) - Zoom-to-Inpaint: Image Inpainting with High-Frequency Details [39.582275854002994]
高分解能で精錬し、出力を元の解像度に縮小する超解像法を提案します。
精細化ネットワークに高精細画像を導入することで、スペクトルバイアスによって通常滑らかになる細部を再構築することができる。
当社のズームイン、精緻化、ズームアウト戦略は、高解像度の監視とプログレッシブラーニングと組み合わせることで、高周波の詳細を高めるためのフレームワークに依存しないアプローチを構成します。
論文 参考訳(メタデータ) (2020-12-17T05:39:37Z) - Attention Model Enhanced Network for Classification of Breast Cancer
Image [54.83246945407568]
AMENはマルチブランチ方式で、画素ワイドアテンションモデルとサブモジュールの分類で定式化される。
微妙な詳細情報に焦点を合わせるため、サンプル画像は、前枝から生成された画素対応の注目マップによって強化される。
3つのベンチマークデータセットで行った実験は、様々なシナリオにおいて提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2020-10-07T08:44:21Z) - Interpretable Detail-Fidelity Attention Network for Single Image
Super-Resolution [89.1947690981471]
本研究では,スムースとディテールを段階的に分割・収束的に処理する,目的・解釈可能なディテール・ファイダリティ・アテンション・ネットワークを提案する。
特に,詳細推論において顕著な解釈可能な特徴表現のためのヘシアンフィルタを提案する。
実験により,提案手法は最先端手法よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2020-09-28T08:31:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。