論文の概要: Sequential Hierarchical Learning with Distribution Transformation for
Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2007.09552v4
- Date: Wed, 3 May 2023 11:35:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 19:45:04.705840
- Title: Sequential Hierarchical Learning with Distribution Transformation for
Image Super-Resolution
- Title(参考訳): 画像超解像のための分布変換を用いた逐次階層学習
- Authors: Yuqing Liu and Xinfeng Zhang and Shanshe Wang and Siwei Ma and Wen Gao
- Abstract要約: 画像SRのための逐次階層学習型超解像ネットワーク(SHSR)を構築した。
特徴のスケール間相関を考察し、階層的情報を段階的に探索するシーケンシャルなマルチスケールブロック(SMB)を考案する。
実験結果から,SHSRは最先端手法に優れた定量的性能と視覚的品質が得られることが示された。
- 参考スコア(独自算出の注目度): 83.70890515772456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-scale design has been considered in recent image super-resolution (SR)
works to explore the hierarchical feature information. Existing multi-scale
networks aim to build elaborate blocks or progressive architecture for
restoration. In general, larger scale features concentrate more on structural
and high-level information, while smaller scale features contain plentiful
details and textured information. In this point of view, information from
larger scale features can be derived from smaller ones. Based on the
observation, in this paper, we build a sequential hierarchical learning
super-resolution network (SHSR) for effective image SR. Specially, we consider
the inter-scale correlations of features, and devise a sequential multi-scale
block (SMB) to progressively explore the hierarchical information. SMB is
designed in a recursive way based on the linearity of convolution with
restricted parameters. Besides the sequential hierarchical learning, we also
investigate the correlations among the feature maps and devise a distribution
transformation block (DTB). Different from attention-based methods, DTB regards
the transformation in a normalization manner, and jointly considers the spatial
and channel-wise correlations with scaling and bias factors. Experiment results
show SHSR achieves superior quantitative performance and visual quality to
state-of-the-art methods with near 34\% parameters and 50\% MACs off when
scaling factor is $\times4$. To boost the performance without further training,
the extension model SHSR$^+$ with self-ensemble achieves competitive
performance than larger networks with near 92\% parameters and 42\% MACs off
with scaling factor $\times4$.
- Abstract(参考訳): 最近の画像超解像(sr)では階層的特徴情報の探索のためにマルチスケール設計が検討されている。
既存のマルチスケールネットワークは、修復のために精巧なブロックやプログレッシブアーキテクチャを構築することを目指している。
一般に、より大規模な特徴は構造情報や高レベル情報に集中し、より小さな特徴には豊富な詳細情報やテクスチャ情報が含まれる。
この観点では、大規模特徴からの情報はより小さな特徴から派生することができる。
そこで本研究では,実効画像SRのための逐次階層学習型超解像ネットワーク(SHSR)を構築した。
特に,特徴のスケール間相関を考察し,階層的情報を段階的に探索する逐次マルチスケールブロック(SMB)を考案する。
smbは制限パラメータとの畳み込みの線形性に基づいて再帰的に設計されている。
逐次階層学習の他に,特徴マップ間の相関について検討し,分布変換ブロック(DTB)を考案する。
注意に基づく手法とは異なり、dtbは正規化の手法で変換を考慮し、スケーリングやバイアス係数と空間的およびチャネル的相関を共同で考慮する。
実験の結果,SHSRは,スケーリング係数が$\times4$の場合に,34\%のパラメータと50\%のMACをオフにした最先端手法に対して,優れた定量的性能と視覚的品質が得られることがわかった。
拡張モデルSHSR$^+$は、さらなるトレーニングをせずに性能を向上させるため、約92\%パラメータと42\%MACをスケール係数$\times4$でオフした大規模ネットワークよりも競争性能を達成する。
関連論文リスト
- Multi-scale Unified Network for Image Classification [33.560003528712414]
CNNは、実世界のマルチスケール画像入力を扱う際に、性能と計算効率において顕著な課題に直面している。
本稿では,マルチスケール,統一ネットワーク,スケール不変制約からなるMultiscale Unified Network(MUSN)を提案する。
MUSNは精度が44.53%向上し、マルチスケールシナリオではFLOPを7.01-16.13%減少させる。
論文 参考訳(メタデータ) (2024-03-27T06:40:26Z) - Hi-ResNet: Edge Detail Enhancement for High-Resolution Remote Sensing Segmentation [10.919956120261539]
高分解能リモートセンシング(HRS)セマンティックセマンティクスは、高分解能カバレッジ領域からキーオブジェクトを抽出する。
HRS画像内の同じカテゴリのオブジェクトは、多様な地理的環境におけるスケールと形状の顕著な違いを示す。
効率的なネットワーク構造を持つ高分解能リモートセンシングネットワーク(Hi-ResNet)を提案する。
論文 参考訳(メタデータ) (2023-05-22T03:58:25Z) - Multi-level Second-order Few-shot Learning [111.0648869396828]
教師付きまたは教師なしの少数ショット画像分類と少数ショット動作認識のためのマルチレベル2次数列学習ネットワーク(MlSo)を提案する。
我々は、パワーノーマライズされた二階学習者ストリームと、複数のレベルの視覚的抽象化を表現する機能を組み合わせた、いわゆる2階学習者ストリームを活用している。
我々は,Omniglot, mini-ImageNet, tiered-ImageNet, Open MIC, CUB Birds, Stanford Dogs, Cars, HMDB51, UCF101, mini-MITなどのアクション認識データセットなどの標準データセットに対して,優れた結果を示す。
論文 参考訳(メタデータ) (2022-01-15T19:49:00Z) - Learning to Aggregate Multi-Scale Context for Instance Segmentation in
Remote Sensing Images [28.560068780733342]
特徴抽出のプロセスを改善するために,新しいコンテキスト集約ネットワーク(CATNet)を提案する。
提案モデルは,高密度特徴ピラミッドネットワーク(DenseFPN),空間コンテキストピラミッド(SCP),階層的関心抽出器(HRoIE)の3つの軽量プラグアンドプレイモジュールを利用する。
論文 参考訳(メタデータ) (2021-11-22T08:55:25Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Multi-Stage Progressive Image Restoration [167.6852235432918]
本稿では、これらの競合する目標を最適にバランスできる新しい相乗的設計を提案する。
本提案では, 劣化した入力の復元関数を段階的に学習する多段階アーキテクチャを提案する。
MPRNetという名前の密接な相互接続型マルチステージアーキテクチャは、10のデータセットに対して強力なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2021-02-04T18:57:07Z) - Joint Self-Attention and Scale-Aggregation for Self-Calibrated Deraining
Network [13.628218953897946]
本稿では,JDNetとよばれる有効アルゴリズムを提案する。
自己校正畳み込みを用いたスケール・アグリゲーション・セルフアグリゲーション・モジュールを巧みに設計することにより,提案モデルはより優れたデコレーション結果が得られる。
論文 参考訳(メタデータ) (2020-08-06T17:04:34Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z) - Crowd Counting via Hierarchical Scale Recalibration Network [61.09833400167511]
本稿では,群集カウントの課題に取り組むために,階層型大規模校正ネットワーク(HSRNet)を提案する。
HSRNetは、リッチなコンテキスト依存をモデル化し、複数のスケール関連情報を再検討する。
提案手法は,様々なノイズを選択的に無視し,適切な群集スケールに自動的に焦点を合わせることができる。
論文 参考訳(メタデータ) (2020-03-07T10:06:47Z) - Multi-Level Feature Fusion Mechanism for Single Image Super-Resolution [0.0]
畳み込みニューラルネットワーク(CNN)は、Single Image Super Resolution(SISR)で広く使われている。
CNNに基づくほとんどのSISRメソッドは階層的特徴とネットワークの学習能力を十分に利用していない。
グローバルな中間機能を完全に活用できるMLRN(Multi-Level Feature Fusion Network)が提案されている。
論文 参考訳(メタデータ) (2020-02-14T10:47:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。