論文の概要: Multi-Depth Branches Network for Efficient Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2309.17334v1
- Date: Fri, 29 Sep 2023 15:46:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 13:04:59.742786
- Title: Multi-Depth Branches Network for Efficient Image Super-Resolution
- Title(参考訳): 効率的な画像超解像のための多層分岐ネットワーク
- Authors: Huiyuan Tian, Li Zhang, Shijian Li, Min Yao, Gang Pan
- Abstract要約: 超解像畳み込みニューラルネットワークのためのMDBN(Multi-Depth Branches Network)を提案する。
我々のフレームワークはResNetアーキテクチャを拡張し、画像の重要な構造特性をキャプチャする追加のブランチを統合する。
GoogLeNetのようなモデルと比較して、我々の基本的な多層分岐構造はパラメータが少なく、計算効率が良く、性能が向上している。
- 参考スコア(独自算出の注目度): 12.042706918188566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Significant progress has been made in the field of super-resolution (SR), yet
many convolutional neural networks (CNNs) based SR models primarily focus on
restoring high-frequency details, often overlooking crucial low-frequency
contour information. Transformer-based SR methods, while incorporating global
structural details, frequently come with an abundance of parameters, leading to
high computational overhead. In this paper, we address these challenges by
introducing a Multi-Depth Branches Network (MDBN). This framework extends the
ResNet architecture by integrating an additional branch that captures vital
structural characteristics of images. Our proposed multi-depth branches module
(MDBM) involves the stacking of convolutional kernels of identical size at
varying depths within distinct branches. By conducting a comprehensive analysis
of the feature maps, we observe that branches with differing depths can extract
contour and detail information respectively. By integrating these branches, the
overall architecture can preserve essential low-frequency semantic structural
information during the restoration of high-frequency visual elements, which is
more closely with human visual cognition. Compared to GoogLeNet-like models,
our basic multi-depth branches structure has fewer parameters, higher
computational efficiency, and improved performance. Our model outperforms
state-of-the-art (SOTA) lightweight SR methods with less inference time. Our
code is available at https://github.com/thy960112/MDBN
- Abstract(参考訳): 超解像(SR)の分野では重要な進歩を遂げているが、多くの畳み込みニューラルネットワーク(CNN)ベースのSRモデルは、しばしば重要な低周波輪郭情報を見越して、主に高周波の詳細の復元に焦点を当てている。
トランスフォーマーベースのSR法は、グローバルな構造的詳細を取り入れつつ、パラメータの多さを伴い、高い計算オーバーヘッドをもたらす。
本稿では,マルチディープブランチネットワーク(mdbn)を導入することで,これらの課題を解決する。
このフレームワークは、イメージの重要な構造特性をキャプチャする追加のブランチを統合することで、resnetアーキテクチャを拡張する。
提案する多層分岐モジュール(MDBM)は,異なる分岐の深さで同一の大きさの畳み込みカーネルを積み重ねることを含む。
特徴写像の包括的解析を行うことにより,異なる深さの枝がそれぞれ輪郭や細部情報を抽出できることを観察する。
これらのブランチを統合することで、人間の視覚認知とより密接な関係を持つ高周波視覚要素の復元において、全体的なアーキテクチャは必須の低周波意味構造情報を保持することができる。
GoogLeNetのようなモデルと比較して、我々の基本的な多層分岐構造はパラメータが少なく、計算効率が高く、性能が向上している。
我々のモデルは推論時間が少なく、最先端(SOTA)軽量SR法より優れている。
私たちのコードはhttps://github.com/thy960112/MDBNで利用可能です。
関連論文リスト
- DSR-Diff: Depth Map Super-Resolution with Diffusion Model [38.68563026759223]
本稿では,遅延空間内の拡散モデルを用いて,深度マップの超解像誘導を行う新しいCDSRパラダイムを提案する。
提案手法は,最先端手法と比較して,広範囲な実験において優れた性能を示した。
論文 参考訳(メタデータ) (2023-11-16T14:18:10Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Learning Detail-Structure Alternative Optimization for Blind
Super-Resolution [69.11604249813304]
そこで我々は,ブラインドSRに先立ってカーネルを曖昧にすることなく,再帰的な詳細構造代替最適化を実現する,有効かつカーネルフリーなネットワークDSSRを提案する。
DSSRでは、細部構造変調モジュール(DSMM)が構築され、画像の詳細と構造の相互作用と協調を利用する。
本手法は既存の手法に対して最先端の手法を実現する。
論文 参考訳(メタデータ) (2022-12-03T14:44:17Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Deep Burst Super-Resolution [165.90445859851448]
バースト超解像タスクのための新しいアーキテクチャを提案する。
我々のネットワークは複数のノイズRAW画像を入力として取り出し、出力として分解された超解像RGB画像を生成する。
実世界のデータのトレーニングと評価を可能にするため,BurstSRデータセットも導入する。
論文 参考訳(メタデータ) (2021-01-26T18:57:21Z) - Cross-MPI: Cross-scale Stereo for Image Super-Resolution using
Multiplane Images [44.85260985973405]
Cross-MPIは、新しい平面対応MPI機構、マルチスケールガイドアップサンプリングモジュール、超高分解能合成・融合モジュールからなるエンドツーエンドのRefSRネットワークである。
デジタル合成および光ズームクロススケールデータによる実験結果から,Cross-MPIフレームワークは既存のRefSR手法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-11-30T09:14:07Z) - Accurate and Lightweight Image Super-Resolution with Model-Guided Deep
Unfolding Network [63.69237156340457]
我々は、モデル誘導深部展開ネットワーク(MoG-DUN)と呼ばれるSISRに対する説明可能なアプローチを提示し、提唱する。
MoG-DUNは正確(エイリアスを少なくする)、計算効率(モデルパラメータを減らした)、多用途(多重劣化を処理できる)である。
RCAN, SRDNF, SRFBNを含む既存の最先端画像手法に対するMoG-DUN手法の優位性は、いくつかの一般的なデータセットと様々な劣化シナリオに関する広範な実験によって実証されている。
論文 参考訳(メタデータ) (2020-09-14T08:23:37Z) - Hyperspectral Image Super-resolution via Deep Spatio-spectral
Convolutional Neural Networks [32.10057746890683]
本稿では,高分解能ハイパースペクトル像と高分解能マルチスペクトル像を融合させる,深部畳み込みニューラルネットワークの簡易かつ効率的なアーキテクチャを提案する。
提案したネットワークアーキテクチャは,近年の最先端ハイパースペクトル画像の超解像化手法と比較して,最高の性能を達成している。
論文 参考訳(メタデータ) (2020-05-29T05:56:50Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。