論文の概要: NLCUnet: Single-Image Super-Resolution Network with Hairline Details
- arxiv url: http://arxiv.org/abs/2307.12014v1
- Date: Sat, 22 Jul 2023 08:20:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 18:28:58.253908
- Title: NLCUnet: Single-Image Super-Resolution Network with Hairline Details
- Title(参考訳): NLCUnet: ヘアラインを具体化した単一画像超解像ネットワーク
- Authors: Jiancong Feng, Yuan-Gen Wang, Fengchuang Xing
- Abstract要約: ヘアライン細部を有する単一画像超解像ネットワーク(NLCUnet)を提案する。
我々は,カーネルのぼやけた推定を行わずに,奥行きの畳み込みとチャネルの注意を組み込むことにより,新しいネットワークアーキテクチャを構築した。
我々のNLCUnetはPSNRとSSIMの指標で最先端よりも性能が良い。
- 参考スコア(独自算出の注目度): 2.761583707089218
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pursuing the precise details of super-resolution images is challenging for
single-image super-resolution tasks. This paper presents a single-image
super-resolution network with hairline details (termed NLCUnet), including
three core designs. Specifically, a non-local attention mechanism is first
introduced to restore local pieces by learning from the whole image region.
Then, we find that the blur kernel trained by the existing work is unnecessary.
Based on this finding, we create a new network architecture by integrating
depth-wise convolution with channel attention without the blur kernel
estimation, resulting in a performance improvement instead. Finally, to make
the cropped region contain as much semantic information as possible, we propose
a random 64$\times$64 crop inside the central 512$\times$512 crop instead of a
direct random crop inside the whole image of 2K size. Numerous experiments
conducted on the benchmark DF2K dataset demonstrate that our NLCUnet performs
better than the state-of-the-art in terms of the PSNR and SSIM metrics and
yields visually favorable hairline details.
- Abstract(参考訳): 超解像度画像の正確な詳細を求めることは、単一画像の超解像度タスクでは難しい。
本稿では,3つのコア設計を含むヘアライン細部(NLCUnet)を有する単一画像超解像ネットワークを提案する。
具体的には、画像領域全体から学習することで、まず、局所的な注意機構を導入する。
そして、既存の作業でトレーニングされたぼやけたカーネルは不要であることがわかりました。
そこで本研究では,カーネル推定を曖昧にすることなく,奥行きの畳み込みをチャネルアテンションと統合することで,新たなネットワークアーキテクチャを構築した。
最後に、収穫された領域にできるだけ多くの意味情報を含ませるために、中央の512$\times$512の作物の中の64$\times$64の作物を、2Kサイズの画像全体の中で直接ランダムな作物の代わりに提案する。
ベンチマークDF2Kデータセットで行った多くの実験により、我々のNLCUnetはPSNRとSSIMの指標で最先端よりも優れており、視覚的に好意的なヘアラインの詳細が得られることが示された。
関連論文リスト
- Generating Superpixels for High-resolution Images with Decoupled Patch
Calibration [82.21559299694555]
Patch Networks (PCNet) は高解像度のスーパーピクセルセグメンテーションを効率的かつ正確に実装するように設計されている。
DPCは高解像度画像から局所パッチを取得し、動的にバイナリマスクを生成し、ネットワークを領域境界に集中させる。
特に、DPCは高解像度画像からローカルパッチを取り、動的にバイナリマスクを生成して、ネットワークを領域境界に集中させる。
論文 参考訳(メタデータ) (2021-08-19T10:33:05Z) - A Two-Stage Attentive Network for Single Image Super-Resolution [34.450320969785935]
本稿では,高精度なSISRのための2段階減衰ネットワーク(TSAN)を提案する。
具体的には,ネットワークがより情報的な文脈的特徴に集中できるように,MCAB(Multi-context Attentive Block)を設計する。
本稿では,詳細なHR画像の再構成のために,HR空間で有用な手がかりを探索できる重要な改良されたアテンションブロック(RAB)を提案する。
論文 参考訳(メタデータ) (2021-04-21T12:20:24Z) - Best-Buddy GANs for Highly Detailed Image Super-Resolution [71.13466303340192]
我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
論文 参考訳(メタデータ) (2021-03-29T02:58:27Z) - Exploiting Raw Images for Real-Scene Super-Resolution [105.18021110372133]
本稿では,合成データと実撮影画像とのギャップを埋めるために,実シーンにおける単一画像の超解像化の問題について検討する。
本稿では,デジタルカメラの撮像過程を模倣して,よりリアルなトレーニングデータを生成する手法を提案する。
また、原画像に記録された放射情報を活用するために、2分岐畳み込みニューラルネットワークを開発した。
論文 参考訳(メタデータ) (2021-02-02T16:10:15Z) - DenserNet: Weakly Supervised Visual Localization Using Multi-scale
Feature Aggregation [7.2531609092488445]
画像表現の異なる意味レベルで特徴マップを集約する畳み込みニューラルネットワークアーキテクチャを開発する。
第二に、我々のモデルは、正および負のGPSタグ付き画像対以外の画素レベルのアノテーションなしで、エンドツーエンドで訓練されている。
第3に、アーキテクチャが計算中に特徴やパラメータを共有しているため、計算効率がよい。
論文 参考訳(メタデータ) (2020-12-04T02:16:47Z) - Boosting High-Level Vision with Joint Compression Artifacts Reduction
and Super-Resolution [10.960291115491504]
任意の品質係数で圧縮された低解像度画像から、アーティファクトフリーの高解像度画像を生成する。
文脈認識型CARとSRニューラルネットワーク(CAJNN)は、局所的特徴と非局所的特徴を統合し、CARとSRを1段階で解く。
高品質で高解像度な画像を予測するために、ディープ・リコンストラクション・ネットワークが採用されている。
論文 参考訳(メタデータ) (2020-10-18T04:17:08Z) - KiU-Net: Overcomplete Convolutional Architectures for Biomedical Image
and Volumetric Segmentation [71.79090083883403]
トラディショナル・エンコーダ・デコーダに基づく手法は, より小さな構造を検出でき, 境界領域を正確に分割できない。
本稿では,(1)入力の細部と正確なエッジを捉えることを学ぶ完全畳み込みネットワークKite-Netと,(2)高レベルの特徴を学習するU-Netの2つの枝を持つKiU-Netを提案する。
提案手法は,より少ないパラメータとより高速な収束の利点により,最近のすべての手法と比較して性能が向上する。
論文 参考訳(メタデータ) (2020-10-04T19:23:33Z) - Blind Image Super-Resolution with Spatial Context Hallucination [5.849485167287474]
本稿では, 劣化カーネルを知らずに, 視覚的超解像のための空間文脈幻覚ネットワーク(SCHN)を提案する。
DIV2KとFlickr2Kという2つの高品質データセットでモデルをトレーニングします。
入力画像がランダムなぼかしとノイズで劣化した場合, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-09-25T22:36:07Z) - Hyperspectral Image Super-resolution via Deep Progressive Zero-centric
Residual Learning [62.52242684874278]
空間情報とスペクトル情報の相互モダリティ分布が問題となる。
本稿では,PZRes-Netという,新しいテクスライトウェイトなディープニューラルネットワークベースのフレームワークを提案する。
本フレームワークは,高分解能かつテクテッセロ中心の残像を学習し,シーンの空間的詳細を高頻度で表現する。
論文 参考訳(メタデータ) (2020-06-18T06:32:11Z) - Gated Fusion Network for Degraded Image Super Resolution [78.67168802945069]
本稿では,基本特徴と回復特徴を別々に抽出する二分岐畳み込みニューラルネットワークを提案する。
特徴抽出ステップを2つのタスク非依存ストリームに分解することで、デュアルブランチモデルがトレーニングプロセスを容易にすることができる。
論文 参考訳(メタデータ) (2020-03-02T13:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。