論文の概要: SDRCNN: A single-scale dense residual connected convolutional neural
network for pansharpening
- arxiv url: http://arxiv.org/abs/2307.00327v1
- Date: Sat, 1 Jul 2023 12:40:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 16:44:47.417157
- Title: SDRCNN: A single-scale dense residual connected convolutional neural
network for pansharpening
- Title(参考訳): SDRCNN:パンシャーピングのための単一スケール高密度高密度コネクテッド畳み込みニューラルネットワーク
- Authors: Yuan Fang, Yuanzhi Cai, and Lei Fan
- Abstract要約: 本研究では,SDRCNNと呼ばれる,単一ブランチで単一スケールの軽量畳み込みニューラルネットワークを開発した。
SDRCNNの性能は、WorldView-3、WorldView-2、QuickBirdの4つのデータセットを用いてテストされた。
- 参考スコア(独自算出の注目度): 12.10124344168457
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Pansharpening is a process of fusing a high spatial resolution panchromatic
image and a low spatial resolution multispectral image to create a
high-resolution multispectral image. A novel single-branch, single-scale
lightweight convolutional neural network, named SDRCNN, is developed in this
study. By using a novel dense residual connected structure and convolution
block, SDRCNN achieved a better trade-off between accuracy and efficiency. The
performance of SDRCNN was tested using four datasets from the WorldView-3,
WorldView-2 and QuickBird satellites. The compared methods include eight
traditional methods (i.e., GS, GSA, PRACS, BDSD, SFIM, GLP-CBD, CDIF and
LRTCFPan) and five lightweight deep learning methods (i.e., PNN, PanNet,
BayesianNet, DMDNet and FusionNet). Based on a visual inspection of the
pansharpened images created and the associated absolute residual maps, SDRCNN
exhibited least spatial detail blurring and spectral distortion, amongst all
the methods considered. The values of the quantitative evaluation metrics were
closest to their ideal values when SDRCNN was used. The processing time of
SDRCNN was also the shortest among all methods tested. Finally, the
effectiveness of each component in the SDRCNN was demonstrated in ablation
experiments. All of these confirmed the superiority of SDRCNN.
- Abstract(参考訳): パンシャープニング(pansharpening)は、高分解能のパンクロマティック画像と低分解能のマルチスペクトル画像を融合して高分解能のマルチスペクトル画像を生成するプロセスである。
本研究では,SDRCNNと呼ばれる,単一ブランチで単一スケールの軽量畳み込みニューラルネットワークを開発した。
SDRCNNは、新しい高密度残差連結構造と畳み込みブロックを用いることで、精度と効率のトレードオフを良くした。
SDRCNNの性能は、WorldView-3、WorldView-2、QuickBirdの4つのデータセットを用いてテストされた。
比較手法には従来の8つの手法(GS, GSA, PRACS, BDSD, SFIM, GLP-CBD, CDIF, LRTCFPan)と5つの軽量ディープラーニング手法(PNN, PanNet, BayesianNet, DMDNet, FusionNet)が含まれる。
SDRCNNは、作成したパンシャーペン画像とそれに伴う絶対残差マップの視覚的検査に基づいて、検討対象のすべての方法の中で、空間的詳細のぼやけやスペクトル歪みが最小であった。
定量的評価指標の値はsdrcnn使用時の理想値に最も近い値であった。
SDRCNNの処理時間もテストされた全ての手法の中で最短であった。
最後に, SDRCNNの各成分の有効性をアブレーション実験で実証した。
これらはすべてSDRCNNの優位性が確認された。
関連論文リスト
- Spiking Neural Network Enhanced Hand Gesture Recognition Using Low-Cost
Single-photon Avalanche Diode Array [0.0]
暗黒および明るい光環境下で10種類のジェスチャーを認識するために,小型なスパイキング畳み込みニューラルネットワーク(SCNN)とスパイキング多層パーセプトロン(90P)を提案する。
ハンドジェスチャ認識(HGR)システムでは,光子強度データをネットワークのトレーニングとテストに利用した。
バニラ畳み込みニューラルネットワーク(CNN)も実装され、SCNNのパフォーマンスを同じネットワークトポロジとトレーニング戦略と比較した。
論文 参考訳(メタデータ) (2024-02-08T06:35:06Z) - Basic Binary Convolution Unit for Binarized Image Restoration Network [146.0988597062618]
本研究では,画像復元作業における残差接続,BatchNorm,アクティベーション機能,構造などのバイナリ畳み込みのコンポーネントを再検討する。
本研究の成果と分析に基づいて, 単純で効率的な基本二元畳み込みユニット (BBCU) を設計した。
我々のBBCUは、他のBNNや軽量モデルよりも大幅に優れており、BBCUがバイナライズされたIRネットワークの基本ユニットとして機能することを示しています。
論文 参考訳(メタデータ) (2022-10-02T01:54:40Z) - New SAR target recognition based on YOLO and very deep multi-canonical
correlation analysis [0.1503974529275767]
本稿では,異なるCNN層から有効な特徴を適応的に融合させることにより,SAR画像ターゲット分類のためのロバストな特徴抽出手法を提案する。
MSTARデータセットの実験により,提案手法が最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-10-28T18:10:26Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Pixel Difference Networks for Efficient Edge Detection [71.03915957914532]
本稿では,Pixel Difference Network (PiDiNet) という軽量かつ効率的なエッジ検出アーキテクチャを提案する。
BSDS500、NYUD、Multicueのデータセットに関する大規模な実験が、その効果を示すために提供されている。
0.1M未満のパラメータを持つPiDiNetのより高速なバージョンは、200FPSのアーティファクトで同等のパフォーマンスを達成できる。
論文 参考訳(メタデータ) (2021-08-16T10:42:59Z) - SAR Image Classification Based on Spiking Neural Network through
Spike-Time Dependent Plasticity and Gradient Descent [7.106664778883502]
スパイキングニューラルネットワーク(SNN)は、脳のような知能のコアコンポーネントの1つである。
本稿では、教師なしおよび教師なし学習SNNに基づいて、完全なSAR画像を構築する。
論文 参考訳(メタデータ) (2021-06-15T09:36:04Z) - Strengthening the Training of Convolutional Neural Networks By Using
Walsh Matrix [0.0]
分類性能を向上させるため,DNNのトレーニングと構造を変更した。
畳み込みニューラルネットワーク(CNN)の最後の層に続く最小距離ネットワーク(MDN)が分類器として使用される。
異なる領域では、ノード数が少ないDivFEを使用することでより高い分類性能が得られたことが観察されている。
論文 参考訳(メタデータ) (2021-03-31T18:06:11Z) - Distillation Guided Residual Learning for Binary Convolutional Neural
Networks [83.6169936912264]
Binary CNN(BCNN)とFloating Point CNN(FCNN)のパフォーマンスギャップを埋めることは難しい。
我々は,この性能差が,BCNNとFCNNの中間特徴写像の間にかなりの残差をもたらすことを観察した。
性能ギャップを最小限に抑えるため,BCNN は FCNN と同様の中間特徴写像を生成する。
このトレーニング戦略、すなわち、FCNNから派生したブロックワイド蒸留損失で各バイナリ畳み込みブロックを最適化することで、BCNNをより効果的に最適化する。
論文 参考訳(メタデータ) (2020-07-10T07:55:39Z) - Hyperspectral Image Super-resolution via Deep Progressive Zero-centric
Residual Learning [62.52242684874278]
空間情報とスペクトル情報の相互モダリティ分布が問題となる。
本稿では,PZRes-Netという,新しいテクスライトウェイトなディープニューラルネットワークベースのフレームワークを提案する。
本フレームワークは,高分解能かつテクテッセロ中心の残像を学習し,シーンの空間的詳細を高頻度で表現する。
論文 参考訳(メタデータ) (2020-06-18T06:32:11Z) - Crossed-Time Delay Neural Network for Speaker Recognition [5.216353911330589]
我々は,現在のTDNNの性能を高めるために,新しい構造であるCrossed-Time Delay Neural Network (CTDNN)を導入する。
提案したCTDNNは,話者認証タスクと識別タスクの両方において,元のTDNNよりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-05-31T06:57:34Z) - R-FCN: Object Detection via Region-based Fully Convolutional Networks [87.62557357527861]
我々は,高精度かつ効率的な物体検出のための領域ベースの完全畳み込みネットワークを提案する。
我々の結果は、Faster R-CNNよりも2.5-20倍高速で、1画像あたり170msのテストタイムで達成される。
論文 参考訳(メタデータ) (2016-05-20T15:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。