論文の概要: OPE-SR: Orthogonal Position Encoding for Designing a Parameter-free
Upsampling Module in Arbitrary-scale Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2303.01091v1
- Date: Thu, 2 Mar 2023 09:26:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 15:14:55.775883
- Title: OPE-SR: Orthogonal Position Encoding for Designing a Parameter-free
Upsampling Module in Arbitrary-scale Image Super-Resolution
- Title(参考訳): OPE-SR:任意スケール画像超解像におけるパラメータフリーアップサンプリングモジュール設計のための直交位置符号化
- Authors: Gaochao Song, Luo Zhang, Ran Su, Jianfeng Shi, Ying He, Qian Sun
- Abstract要約: インプリシット・ニューラル表現(INR)は、任意のスケールの画像超解像に対する一般的なアプローチである。
我々は、任意のスケールの画像超解像のためにINRベースのアップサンプリングモジュールを置き換えるOPE-Upscaleモジュールを提案する。
- 参考スコア(独自算出の注目度): 11.74426147465809
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit neural representation (INR) is a popular approach for
arbitrary-scale image super-resolution (SR), as a key component of INR,
position encoding improves its representation ability. Motivated by position
encoding, we propose orthogonal position encoding (OPE) - an extension of
position encoding - and an OPE-Upscale module to replace the INR-based
upsampling module for arbitrary-scale image super-resolution. Same as INR, our
OPE-Upscale Module takes 2D coordinates and latent code as inputs; however it
does not require training parameters. This parameter-free feature allows the
OPE-Upscale Module to directly perform linear combination operations to
reconstruct an image in a continuous manner, achieving an arbitrary-scale image
reconstruction. As a concise SR framework, our method has high computing
efficiency and consumes less memory comparing to the state-of-the-art (SOTA),
which has been confirmed by extensive experiments and evaluations. In addition,
our method has comparable results with SOTA in arbitrary scale image
super-resolution. Last but not the least, we show that OPE corresponds to a set
of orthogonal basis, justifying our design principle.
- Abstract(参考訳): Inlicit Neural representation (INR)は、任意のスケールの画像超解像(SR)に対する一般的なアプローチであり、INRの重要な構成要素である位置符号化は、その表現能力を向上する。
位置符号化をモチベーションとして,位置符号化の拡張である直交位置符号化(OPE)と,INRベースのアップサンプリングモジュールを置き換えるOPE-Upscaleモジュールを提案する。
inrと同様、ope-upscaleモジュールは2d座標と潜在コードを入力として取得しますが、トレーニングパラメータは必要ありません。
このパラメータフリー機能により、OPE-Upscale Moduleは線形結合操作を直接実行して画像を連続的に再構成し、任意のスケールの画像再構成を実現することができる。
簡潔なSRフレームワークとして,提案手法は計算効率が高く,実験や評価によって確認されている最先端技術(SOTA)と比較してメモリ消費が少ない。
さらに,本手法は任意のスケール画像超解像におけるSOTAと同等の結果が得られる。
最後に、op が直交基底の集合に対応することを示し、我々の設計原理を正当化する。
関連論文リスト
- PassionSR: Post-Training Quantization with Adaptive Scale in One-Step Diffusion based Image Super-Resolution [87.89013794655207]
拡散に基づく画像超解像(SR)モデルでは、複数のデノナイジングステップのコストで優れた性能を示す。
本稿では,一段階拡散(OSD)画像SR,PassionSRにおける適応スケールの学習後量子化手法を提案する。
我々のPassionSRは、画像SRの最近の先進的な低ビット量子化法に対して大きな利点がある。
論文 参考訳(メタデータ) (2024-11-26T04:49:42Z) - Efficient Model Agnostic Approach for Implicit Neural Representation
Based Arbitrary-Scale Image Super-Resolution [5.704360536038803]
単一の画像超解像(SISR)は、主に深層畳み込みネットワークによって大きく進歩した。
従来のネットワークは、画像を一定のスケールにスケールアップすることに限定されており、任意のスケールのイメージを生成するために暗黙の神経機能を利用することになる。
我々は,任意のスケールで超解像を実現する,新しい,効率的なフレームワークであるMixture of Experts Implicit Super-Resolution(MoEISR)を導入する。
論文 参考訳(メタデータ) (2023-11-20T05:34:36Z) - Recursive Generalization Transformer for Image Super-Resolution [108.67898547357127]
本稿では,大域空間情報を捕捉し,高分解能画像に適した画像SRのための再帰一般化変換器(RGT)を提案する。
我々は,RG-SAと局所的自己意識を組み合わせることで,グローバルな文脈の活用を促進する。
我々のRGTは最近の最先端の手法よりも定量的に質的に優れている。
論文 参考訳(メタデータ) (2023-03-11T10:44:44Z) - Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution [90.16462805389943]
視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
論文 参考訳(メタデータ) (2023-02-27T14:19:31Z) - LSR: A Light-Weight Super-Resolution Method [36.14816868964436]
LSRは、補間された低分解能画像(ILR)と高分解能画像(HR)の間の残像を自己監督フレームワークを用いて予測する。
1)教師なし学習により対象画素の近傍にリッチで多様化した表現プールを生成すること,2)教師なし学習により下層の超解像タスクに最も関係のある表現プールからサブセットを選択すること,3)回帰によって対象画素の残差を予測すること,の3つのモジュールから構成される。
論文 参考訳(メタデータ) (2023-02-27T09:02:35Z) - LR-CSNet: Low-Rank Deep Unfolding Network for Image Compressive Sensing [19.74767410530179]
深部展開型ネットワーク(DUN)は、圧縮センシング(CS)に有効なアプローチであることが証明されている。
本研究では,自然画像CSのための低ランクCSネットワーク(LR-CSNet)を提案する。
広範に検討された3つのデータセットに対する実験は、LR-CSNetの有望な性能を示す。
論文 参考訳(メタデータ) (2022-12-18T13:54:11Z) - Effective Invertible Arbitrary Image Rescaling [77.46732646918936]
Invertible Neural Networks (INN)は、ダウンスケーリングとアップスケーリングのサイクルを共同で最適化することにより、アップスケーリングの精度を大幅に向上させることができる。
本研究の1つのモデルのみをトレーニングすることにより、任意の画像再スケーリングを実現するために、単純で効果的な非可逆的再スケーリングネットワーク(IARN)を提案する。
LR出力の知覚品質を損なうことなく、双方向任意再スケーリングにおいて最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-09-26T22:22:30Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - Implicit Transformer Network for Screen Content Image Continuous
Super-Resolution [27.28782217250359]
高分解能(HR)スクリーンの内容は、ダウンサンプリングされ圧縮されることがある。
低解像度(LR)画面コンテンツ画像(SCI)の超解像度(SR)は、HRディスプレイやユーザが詳細な観察のためにズームインするように要求される。
本稿では,SCISRのための新しいImplicit Transformer Super-Resolution Network(ITSRN)を提案する。
論文 参考訳(メタデータ) (2021-12-12T07:39:37Z) - Robust Reference-based Super-Resolution via C2-Matching [77.51610726936657]
超解像(Ref-SR)は、最近、高分解能(HR)参照画像を導入して、低分解能(LR)入力画像を強化するための有望なパラダイムとして登場した。
既存のRef-SR法は主に暗黙の対応に頼り、参照画像からHRテクスチャを借用し、入力画像の情報損失を補う。
本稿では,C2-Matchingを提案する。
論文 参考訳(メタデータ) (2021-06-03T16:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。