論文の概要: Super-Resolution Neural Operator
- arxiv url: http://arxiv.org/abs/2303.02584v1
- Date: Sun, 5 Mar 2023 06:17:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 18:41:41.162670
- Title: Super-Resolution Neural Operator
- Title(参考訳): 超解像型ニューラル演算子
- Authors: Min Wei, Xuesong Zhang
- Abstract要約: 本稿では,低分解能(LR)画像から任意のスケールで高分解能(HR)画像を分解できるフレームワークを提案する。
LR-HR画像対を異なる格子サイズで近似した連続関数として扱うことにより、SRNOは対応する関数空間間のマッピングを学習する。
実験により、SRNOは既存の連続SR法よりも精度と実行時間の両方で優れていることが示された。
- 参考スコア(独自算出の注目度): 5.018040244860608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Super-resolution Neural Operator (SRNO), a deep operator learning
framework that can resolve high-resolution (HR) images at arbitrary scales from
the low-resolution (LR) counterparts. Treating the LR-HR image pairs as
continuous functions approximated with different grid sizes, SRNO learns the
mapping between the corresponding function spaces. From the perspective of
approximation theory, SRNO first embeds the LR input into a higher-dimensional
latent representation space, trying to capture sufficient basis functions, and
then iteratively approximates the implicit image function with a kernel
integral mechanism, followed by a final dimensionality reduction step to
generate the RGB representation at the target coordinates. The key
characteristics distinguishing SRNO from prior continuous SR works are: 1) the
kernel integral in each layer is efficiently implemented via the Galerkin-type
attention, which possesses non-local properties in the spatial domain and
therefore benefits the grid-free continuum; and 2) the multilayer attention
architecture allows for the dynamic latent basis update, which is crucial for
SR problems to "hallucinate" high-frequency information from the LR image.
Experiments show that SRNO outperforms existing continuous SR methods in terms
of both accuracy and running time. Our code is at
https://github.com/2y7c3/Super-Resolution-Neural-Operator
- Abstract(参考訳): 本稿では,高分解能画像(HR)を低分解能画像(LR)から任意のスケールで処理可能な,深層演算子学習フレームワークSRNOを提案する。
LR-HR画像対をグリッドサイズに近似した連続関数として扱い、SRNOは対応する関数空間間のマッピングを学習する。
近似理論の観点からは、SRNOはまずLR入力を高次元の潜在表現空間に埋め込み、十分な基底関数を捕捉し、次に暗黙のイメージ関数をカーネル積分機構で反復的に近似し、続いて最終次元縮小ステップで目標座標でのRGB表現を生成する。
SRNOと以前の連続SR作品とを区別する重要な特徴は次のとおりである。
1) 各層における核積分は、空間領域における非局所的性質を持つガレルキン型注意を通して効率よく実装され、したがってグリッドフリー連続体に恩恵を与える。
2)多層アテンションアーキテクチャは動的潜時基底更新を可能にし,sr問題においてlr画像からの高周波情報を「幻覚」する上で重要である。
実験により、SRNOは既存の連続SR法よりも精度と実行時間の両方で優れていることが示された。
私たちのコードはhttps://github.com/2y7c3/Super-Resolution-Neural-Operatorにあります。
関連論文リスト
- Latent Diffusion, Implicit Amplification: Efficient Continuous-Scale Super-Resolution for Remote Sensing Images [7.920423405957888]
E$2$DiffSRは、最先端のSR手法と比較して、客観的な指標と視覚的品質を達成する。
拡散に基づくSR法の推論時間を非拡散法と同程度のレベルに短縮する。
論文 参考訳(メタデータ) (2024-10-30T09:14:13Z) - CiaoSR: Continuous Implicit Attention-in-Attention Network for
Arbitrary-Scale Image Super-Resolution [158.2282163651066]
本稿ではCiaoSRと呼ばれる連続的な暗黙の注意-注意ネットワークを提案する。
我々は、周辺地域の特徴のアンサンブル重みを学習するために、暗黙の注意ネットワークを明示的に設計する。
我々は、この暗黙の注意ネットワークにスケールアウェアの注意を埋め込んで、追加の非ローカル情報を活用する。
論文 参考訳(メタデータ) (2022-12-08T15:57:46Z) - Learning Detail-Structure Alternative Optimization for Blind
Super-Resolution [69.11604249813304]
そこで我々は,ブラインドSRに先立ってカーネルを曖昧にすることなく,再帰的な詳細構造代替最適化を実現する,有効かつカーネルフリーなネットワークDSSRを提案する。
DSSRでは、細部構造変調モジュール(DSMM)が構築され、画像の詳細と構造の相互作用と協調を利用する。
本手法は既存の手法に対して最先端の手法を実現する。
論文 参考訳(メタデータ) (2022-12-03T14:44:17Z) - SRDiff: Single Image Super-Resolution with Diffusion Probabilistic
Models [19.17571465274627]
単一の画像スーパーリゾリューション(SISR)は、与えられた低リゾリューション(LR)画像から高解像度(HR)画像を再構成することを目的とする。
新規な単像超解像拡散確率モデル(SRDiff)を提案する。
SRDiffはデータ可能性の変動境界の変種に最適化されており、多様で現実的なSR予測を提供することができる。
論文 参考訳(メタデータ) (2021-04-30T12:31:25Z) - UltraSR: Spatial Encoding is a Missing Key for Implicit Image
Function-based Arbitrary-Scale Super-Resolution [74.82282301089994]
本研究では,暗黙的イメージ関数に基づく,シンプルで効果的な新しいネットワーク設計であるUltraSRを提案する。
空間符号化は,次の段階の高精度暗黙的画像機能に対する欠落鍵であることを示す。
UltraSRは、すべての超解像スケールでDIV2Kベンチマークに最新のパフォーマンスを設定します。
論文 参考訳(メタデータ) (2021-03-23T17:36:42Z) - Real Image Super Resolution Via Heterogeneous Model Ensemble using
GP-NAS [63.48801313087118]
本稿では,高密度スキップ接続を有するディープ残差ネットワークを用いた画像超解像法を提案する。
提案手法は、AIM 2020 Real Image Super-Resolution Challengeの3トラックで1位を獲得した。
論文 参考訳(メタデータ) (2020-09-02T22:33:23Z) - Lightweight image super-resolution with enhanced CNN [82.36883027158308]
強い表現力を持つ深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像(SISR)において印象的な性能を達成した
情報抽出・拡張ブロック(IEEB)、再構築ブロック(RB)、情報精製ブロック(IRB)の3つの連続したサブブロックを持つ軽量拡張SR CNN(LESRCNN)を提案する。
IEEBは階層的低分解能(LR)特徴を抽出し、SISRの深い層上の浅い層の記憶能力を高めるために、得られた特徴を段階的に集約する。
RBはグローバルに拡散することで低周波特徴を高周波特徴に変換する
論文 参考訳(メタデータ) (2020-07-08T18:03:40Z) - Hyperspectral Image Super-resolution via Deep Progressive Zero-centric
Residual Learning [62.52242684874278]
空間情報とスペクトル情報の相互モダリティ分布が問題となる。
本稿では,PZRes-Netという,新しいテクスライトウェイトなディープニューラルネットワークベースのフレームワークを提案する。
本フレームワークは,高分解能かつテクテッセロ中心の残像を学習し,シーンの空間的詳細を高頻度で表現する。
論文 参考訳(メタデータ) (2020-06-18T06:32:11Z) - AdaptiveWeighted Attention Network with Camera Spectral Sensitivity
Prior for Spectral Reconstruction from RGB Images [22.26917280683572]
スペクトル再構成のための適応重み付き注意ネットワーク(AWAN)を提案する。
AWCAおよびPSNLモジュールは、チャネルワイドな特徴応答を再配置するために開発された。
NTIRE 2020 Spectral Reconstruction Challengeでは、クリーントラックで1位、リアルワールドで3位を獲得しました。
論文 参考訳(メタデータ) (2020-05-19T09:21:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。