論文の概要: PTSR: Patch Translator for Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2310.13216v1
- Date: Fri, 20 Oct 2023 01:45:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 00:54:44.641041
- Title: PTSR: Patch Translator for Image Super-Resolution
- Title(参考訳): PTSR:画像超解像のためのパッチトランスレータ
- Authors: Neeraj Baghel, Shiv Ram Dubey, Satish Kumar Singh
- Abstract要約: 画像超解像(PTSR)のためのパッチトランスレータを提案し,この問題に対処する。
提案するPTSRは、畳み込み動作のないトランスフォーマーベースGANネットワークである。
マルチヘッドアテンションを利用した改良パッチを再生するための新しいパッチトランスレータモジュールを提案する。
- 参考スコア(独自算出の注目度): 16.243363392717434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image super-resolution generation aims to generate a high-resolution image
from its low-resolution image. However, more complex neural networks bring high
computational costs and memory storage. It is still an active area for offering
the promise of overcoming resolution limitations in many applications. In
recent years, transformers have made significant progress in computer vision
tasks as their robust self-attention mechanism. However, recent works on the
transformer for image super-resolution also contain convolution operations. We
propose a patch translator for image super-resolution (PTSR) to address this
problem. The proposed PTSR is a transformer-based GAN network with no
convolution operation. We introduce a novel patch translator module for
regenerating the improved patches utilising multi-head attention, which is
further utilised by the generator to generate the 2x and 4x super-resolution
images. The experiments are performed using benchmark datasets, including
DIV2K, Set5, Set14, and BSD100. The results of the proposed model is improved
on an average for $4\times$ super-resolution by 21.66% in PNSR score and 11.59%
in SSIM score, as compared to the best competitive models. We also analyse the
proposed loss and saliency map to show the effectiveness of the proposed
method.
- Abstract(参考訳): 画像超解像度生成はその低解像度画像から高解像度画像を生成することを目的としている。
しかし、より複雑なニューラルネットワークは高い計算コストとメモリストレージをもたらす。
多くのアプリケーションで解決の限界を克服する約束を提供するための活発な領域である。
近年、トランスフォーマーはロバストな自己着脱機構としてコンピュータビジョンタスクにおいて大きな進歩を遂げている。
しかし、イメージスーパーレゾリューション用トランスフォーマーの最近の仕事は畳み込み操作も含んでいる。
画像超解像(PTSR)のためのパッチトランスレータを提案し,この問題に対処する。
提案するPTSRは、畳み込み動作のないトランスフォーマーベースGANネットワークである。
マルチヘッドアテンションを利用した改良パッチを再生するための新しいパッチトランスレータモジュールを導入し、2xおよび4xの超高解像度画像を生成するためにジェネレータによりさらに活用する。
実験は、div2k、set5、set14、bsd100を含むベンチマークデータセットを用いて行われる。
提案モデルの結果は,PNSRスコアが21.66%,SSIMスコアが11.59%,最高競争モデルが4\times$スーパーレゾリューション平均で改善された。
また,提案手法の有効性を示すため,提案する損失・給与マップの解析を行った。
関連論文リスト
- A Low-Resolution Image is Worth 1x1 Words: Enabling Fine Image Super-Resolution with Transformers and TaylorShift [6.835244697120131]
1x1のパッチサイズを利用して制限に対処するTaylorIRを提案し、任意のトランスフォーマーベースSRモデルでピクセルレベルの処理を可能にする。
実験により,従来の自己注意型変圧器と比較して,メモリ消費を最大60%削減しながら,最先端のSR性能を実現することができた。
論文 参考訳(メタデータ) (2024-11-15T14:43:58Z) - SRTransGAN: Image Super-Resolution using Transformer based Generative
Adversarial Network [16.243363392717434]
トランスをベースとしたエンコーダデコーダネットワークを2倍画像と4倍画像を生成するジェネレータとして提案する。
提案したSRTransGANは、PSNRとSSIMのスコアの平均で、既存の手法よりも4.38%優れていた。
論文 参考訳(メタデータ) (2023-12-04T16:22:39Z) - HAT: Hybrid Attention Transformer for Image Restoration [61.74223315807691]
トランスフォーマーに基づく手法は、画像の超解像や復調といった画像復元タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
我々のHATは,定量的かつ定性的に,最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-09-11T05:17:55Z) - Image Reconstruction using Enhanced Vision Transformer [0.08594140167290097]
画像のデノイング,デブロアリング,インペイントといったタスクに使用できる新しい画像再構成フレームワークを提案する。
このプロジェクトで提案されるモデルは、2次元画像を入力として取り込んで埋め込みを出力するビジョントランスフォーマー(ViT)に基づいている。
モデル再構築機能を改善するために,フレームワークに4つの最適化手法を組み込んだ。
論文 参考訳(メタデータ) (2023-07-11T02:14:18Z) - LSwinSR: UAV Imagery Super-Resolution based on Linear Swin Transformer [7.3817359680010615]
超高分解能技術は無人航空機(UAV)に特に有用である
本稿では,UAV画像の高分解能化のために,最先端のSwin Transformerに基づく新しいネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-17T20:14:10Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z) - AdaViT: Adaptive Vision Transformers for Efficient Image Recognition [78.07924262215181]
AdaViTは、パッチ、セルフアテンションヘッド、およびトランスフォーマーブロックを使用するための利用ポリシーを導出する適応フレームワークである。
本手法は,0.8%の精度で,最先端のビジョントランスに比べて2倍以上の効率向上を実現している。
論文 参考訳(メタデータ) (2021-11-30T18:57:02Z) - HRFormer: High-Resolution Transformer for Dense Prediction [99.6060997466614]
本稿では高分解能な予測タスクのための高分解能表現を学習する高分解能変換器(HRFormer)を提案する。
我々は高分解能畳み込みネットワーク(HRNet)で導入された多分解能並列設計を利用する。
人間のポーズ推定とセマンティックセグメンテーションにおける高分解能トランスフォーマの有効性を示す。
論文 参考訳(メタデータ) (2021-10-18T15:37:58Z) - Generating Superpixels for High-resolution Images with Decoupled Patch
Calibration [82.21559299694555]
Patch Networks (PCNet) は高解像度のスーパーピクセルセグメンテーションを効率的かつ正確に実装するように設計されている。
DPCは高解像度画像から局所パッチを取得し、動的にバイナリマスクを生成し、ネットワークを領域境界に集中させる。
特に、DPCは高解像度画像からローカルパッチを取り、動的にバイナリマスクを生成して、ネットワークを領域境界に集中させる。
論文 参考訳(メタデータ) (2021-08-19T10:33:05Z) - Improved Transformer for High-Resolution GANs [69.42469272015481]
この課題に対処するために、Transformerに2つの重要な要素を紹介します。
実験で提案したHiTは、条件のないImageNetの31.87と2.95のFIDスコアをそれぞれ128×128$とFFHQの256×256$で達成していることを示す。
論文 参考訳(メタデータ) (2021-06-14T17:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。