論文の概要: SamplingAug: On the Importance of Patch Sampling Augmentation for Single
Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2111.15185v1
- Date: Tue, 30 Nov 2021 07:49:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 13:27:22.181284
- Title: SamplingAug: On the Importance of Patch Sampling Augmentation for Single
Image Super-Resolution
- Title(参考訳): SmplingAug: 単一画像超解法におけるパッチサンプリング強化の重要性について
- Authors: Shizun Wang, Ming Lu, Kaixin Chen, Jiaming Liu, Xiaoqi Li, Chuang
zhang, Ming Wu
- Abstract要約: 本稿では,画像訓練のための簡易かつ効果的なデータ拡張法を提案する。
まず,各パッチペアの重要度を評価する指標を考案する。
すべてのパッチペアの計算コストを削減するために,積分画像による計算の最適化を提案する。
- 参考スコア(独自算出の注目度): 28.089781316522284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of Deep Neural Networks (DNNs), plenty of methods based
on DNNs have been proposed for Single Image Super-Resolution (SISR). However,
existing methods mostly train the DNNs on uniformly sampled LR-HR patch pairs,
which makes them fail to fully exploit informative patches within the image. In
this paper, we present a simple yet effective data augmentation method. We
first devise a heuristic metric to evaluate the informative importance of each
patch pair. In order to reduce the computational cost for all patch pairs, we
further propose to optimize the calculation of our metric by integral image,
achieving about two orders of magnitude speedup. The training patch pairs are
sampled according to their informative importance with our method. Extensive
experiments show our sampling augmentation can consistently improve the
convergence and boost the performance of various SISR architectures, including
EDSR, RCAN, RDN, SRCNN and ESPCN across different scaling factors (x2, x3, x4).
Code is available at https://github.com/littlepure2333/SamplingAug
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の開発に伴い、DNNに基づく多くの手法がSingle Image Super-Resolution(SISR)のために提案されている。
しかし、既存の手法は主に一様にサンプリングされたLR-HRパッチペアでDNNを訓練するので、画像内の情報パッチを完全に活用できない。
本稿では,単純だが効果的なデータ拡張手法を提案する。
まず,各パッチペアの重要度を評価するためのヒューリスティックな指標を考案する。
さらに,全てのパッチペアの計算コストを削減するため,積分画像によるメトリックの計算を最適化し,約2桁の高速化を実現することを提案する。
トレーニングパッチペアは,本手法の重要度に応じてサンプリングされる。
広範な実験により,我々のサンプリング拡張は,さまざまなスケーリング因子 (x2, x3, x4) をまたいだ,edsr, rcan, rdn, srcnn, espcn を含む様々な sisr アーキテクチャのコンバージェンスを一貫して改善し,性能を向上させることが示されている。
コードはhttps://github.com/littlepure2333/SamplingAugで入手できる。
関連論文リスト
- Accelerating Image Super-Resolution Networks with Pixel-Level Classification [29.010136088811137]
Pixel-level for Single Image SuperResolutionは、ピクセルレベルで計算資源を適応的に分配する新しい手法である。
提案手法では,再学習を伴わない推論における性能と計算コストのバランスが可能である。
論文 参考訳(メタデータ) (2024-07-31T08:53:10Z) - LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - AdaPool: Exponential Adaptive Pooling for Information-Retaining
Downsampling [82.08631594071656]
畳み込み層は畳み込みニューラルネットワーク(CNN)の重要な構成要素である
適応的で指数関数的に重み付けされたアダプール法を提案する。
adaPoolは画像やビデオの分類やオブジェクト検出など,さまざまなタスクを通じて,ディテールの保存性の向上を実証する。
論文 参考訳(メタデータ) (2021-11-01T08:50:37Z) - Cross-Scale Internal Graph Neural Network for Image Super-Resolution [147.77050877373674]
自然画像における非局所的な自己相似性は、画像修復に有効な先行研究として、よく研究されている。
単一の画像超解像(SISR)の場合、既存のディープ非局所法のほとんどは、低解像度(LR)入力画像と同じ規模のパッチしか利用していない。
これは、新しいクロススケールな内部グラフニューラルネットワーク(IGNN)を用いて実現される。
論文 参考訳(メタデータ) (2020-06-30T10:48:40Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。