論文の概要: Dense U-net for super-resolution with shuffle pooling layer
- arxiv url: http://arxiv.org/abs/2011.05490v2
- Date: Sat, 9 Jan 2021 05:58:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 00:41:50.555083
- Title: Dense U-net for super-resolution with shuffle pooling layer
- Title(参考訳): シャッフルプール層を用いた高分解能U-net
- Authors: Zhengyang Lu and Ying Chen
- Abstract要約: 最近の研究は、単一画像超解像(SISR)において大きな進歩を遂げている。
この方法では、高分解能入力画像は、特徴抽出の前に単一のフィルタ、通常最大プーリングを用いて、低分解能空間にダウンスケールされる。
これは準最適であり、情報損失を引き起こすことを実証する。
本研究では,シャッフルプールを用いたDense U-netという最先端の畳み込みニューラルネットワーク手法を提案する。
- 参考スコア(独自算出の注目度): 4.397981844057195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent researches have achieved great progress on single image
super-resolution(SISR) due to the development of deep learning in the field of
computer vision. In these method, the high resolution input image is
down-scaled to low resolution space using a single filter, commonly
max-pooling, before feature extraction. This means that the feature extraction
is performed in biased filtered feature space. We demonstrate that this is
sub-optimal and causes information loss. In this work, we proposed a
state-of-the-art convolutional neural network method called Dense U-net with
shuffle pooling. To achieve this, a modified U-net with dense blocks, called
dense U-net, is proposed for SISR. Then, a new pooling strategy called shuffle
pooling is designed, which is aimed to replace the dense U-Net for down-scale
operation. By doing so, we effectively replace the handcrafted filter in the
SISR pipeline with more lossy down-sampling filters specifically trained for
each feature map, whilst also reducing the information loss of the overall SISR
operation. In addition, a mix loss function, which combined with Mean Square
Error(MSE), Structural Similarity Index(SSIM) and Mean Gradient Error (MGE),
comes up to reduce the perception loss and high-level information loss. Our
proposed method achieves superior accuracy over previous state-of-the-art on
the three benchmark datasets: SET14, BSD300, ICDAR2003. Code is available
online.
- Abstract(参考訳): 近年の研究では、コンピュータビジョンの分野での深層学習の発展により、単一画像超解像(SISR)に大きな進歩を遂げている。
この方法では、高分解能入力画像は、特徴抽出の前に単一のフィルタ、通常最大プーリングを用いて、低分解能空間にダウンスケールされる。
つまり、特徴抽出はバイアス付きフィルタ特徴空間で行われる。
これは準最適であり、情報損失を引き起こすことを示す。
本研究では,シャッフルプールを用いたDense U-netという最先端の畳み込みニューラルネットワーク手法を提案する。
これを実現するため、SISRでは密度の高いU-netと呼ばれる高密度ブロックを持つ修正U-netを提案する。
次に, シャッフルプールと呼ばれる新しいプール方式を設計し, より高密度なU-Netをダウンスケール操作に置き換えることを目的とした。
これにより、SISRパイプラインのハンドクラフトフィルタを、各特徴マップに特化して訓練されたより損失の多いダウンサンプリングフィルタに置き換えると同時に、SISR全体の情報損失を低減することができる。
さらに、平均二乗誤差(mse)、構造類似度指数(ssim)、平均勾配誤差(mge)を組み合わせた混合損失関数によって、知覚損失と高レベル情報損失を低減することができる。
提案手法は,SET14,BSD300,ICDAR2003の3つのベンチマークデータセットにおいて,先行技術よりも精度が高い。
コードはオンラインで入手できる。
関連論文リスト
- Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z) - Deep Amended Gradient Descent for Efficient Spectral Reconstruction from
Single RGB Images [42.26124628784883]
本稿では、AGD-Netという、コンパクトで効率的でエンドツーエンドの学習ベースのフレームワークを提案する。
まず、古典的勾配降下アルゴリズムに基づいて問題を明示的に定式化する。
AGD-Netは、平均1.0dB以上のリコンストラクション品質を向上させることができる。
論文 参考訳(メタデータ) (2021-08-12T05:54:09Z) - PLADE-Net: Towards Pixel-Level Accuracy for Self-Supervised Single-View
Depth Estimation with Neural Positional Encoding and Distilled Matting Loss [49.66736599668501]
PLADE-Netと呼ばれる自己監視型単視点画素レベルの高精度深度推定ネットワークを提案する。
提案手法は,KITTIデータセットの$delta1$測定値の95%を超え,前例のない精度を示す。
論文 参考訳(メタデータ) (2021-03-12T15:54:46Z) - Unrolling of Deep Graph Total Variation for Image Denoising [106.93258903150702]
本稿では,従来のグラフ信号フィルタリングと深い特徴学習を併用して,競合するハイブリッド設計を提案する。
解釈可能な低パスグラフフィルタを用い、最先端のDL復調方式DnCNNよりも80%少ないネットワークパラメータを用いる。
論文 参考訳(メタデータ) (2020-10-21T20:04:22Z) - LiteDepthwiseNet: An Extreme Lightweight Network for Hyperspectral Image
Classification [9.571458051525768]
本稿では,HSI分類のための新しいネットワークアーキテクチャLiteDepthwiseNetを提案する。
LiteDepthwiseNetは、標準の畳み込みを深さ方向の畳み込みと点方向の畳み込みに分解し、最小限のパラメータで高い分類性能を達成する。
3つのベンチマークハイパースペクトルデータセットによる実験結果から、LiteDepthwiseNetは、非常に少ないパラメータと少ない計算コストで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-10-15T13:12:17Z) - Monocular Depth Estimation Using Multi Scale Neural Network And Feature
Fusion [0.0]
ネットワークは2つの異なるブロックを使用し、まず、各特徴マップの畳み込みとマージに異なるフィルタサイズを使用する。
第2ブロックは、完全に連結された層の代わりに拡張畳み込みを使用し、計算を減らし、受容場を増大させる。
我々は、RMSE損失とSILog損失からなる深さ推定のための標準評価指標を用いて、Make 3Dデータセット、NYU Depth V2データセット、Kittiデータセットでネットワークをトレーニングし、テストする。
論文 参考訳(メタデータ) (2020-09-11T18:08:52Z) - Progressively Guided Alternate Refinement Network for RGB-D Salient
Object Detection [63.18846475183332]
我々は,RGB-Dの高次物体検出のための効率的かつコンパクトなディープネットワークを開発することを目指している。
そこで本研究では,改良のための改良ネットワークを提案する。
我々のモデルは、既存の最先端のアプローチよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2020-08-17T02:55:06Z) - Hierarchical Dynamic Filtering Network for RGB-D Salient Object
Detection [91.43066633305662]
RGB-D Salient Object Detection (SOD) の主な目的は、相互融合情報をよりよく統合し活用する方法である。
本稿では,これらの問題を新たな視点から考察する。
我々は、より柔軟で効率的なマルチスケールのクロスモーダルな特徴処理を実装している。
論文 参考訳(メタデータ) (2020-07-13T07:59:55Z) - Y-net: Multi-scale feature aggregation network with wavelet structure
similarity loss function for single image dehazing [18.479856828292935]
本稿では,その構造から命名されたY-netを提案する。
このネットワークは、マルチスケールの特徴マップを集約することで、鮮明な画像を再構成する。
また、トレーニングステップにおいてウェーブレット構造シミュラリティ(W-SSIM)損失関数を提案する。
論文 参考訳(メタデータ) (2020-03-31T02:07:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。