論文の概要: Mutual Affine Network for Spatially Variant Kernel Estimation in Blind
Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2108.05302v1
- Date: Wed, 11 Aug 2021 16:11:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 13:25:39.788099
- Title: Mutual Affine Network for Spatially Variant Kernel Estimation in Blind
Image Super-Resolution
- Title(参考訳): ブラインド画像超解像における空間変動カーネル推定のための相互アフィンネットワーク
- Authors: Jingyun Liang, Guolei Sun, Kai Zhang, Luc Van Gool, Radu Timofte
- Abstract要約: 既存のブラインド画像超解像法(SR)は、ぼやけたカーネルが画像全体にわたって空間的に不変であると仮定する。
本稿では,空間変動カーネル推定のための相互アフィンネットワーク(MANet)を提案する。
- 参考スコア(独自算出の注目度): 130.32026819172256
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Existing blind image super-resolution (SR) methods mostly assume blur kernels
are spatially invariant across the whole image. However, such an assumption is
rarely applicable for real images whose blur kernels are usually spatially
variant due to factors such as object motion and out-of-focus. Hence, existing
blind SR methods would inevitably give rise to poor performance in real
applications. To address this issue, this paper proposes a mutual affine
network (MANet) for spatially variant kernel estimation. Specifically, MANet
has two distinctive features. First, it has a moderate receptive field so as to
keep the locality of degradation. Second, it involves a new mutual affine
convolution (MAConv) layer that enhances feature expressiveness without
increasing receptive field, model size and computation burden. This is made
possible through exploiting channel interdependence, which applies each channel
split with an affine transformation module whose input are the rest channel
splits. Extensive experiments on synthetic and real images show that the
proposed MANet not only performs favorably for both spatially variant and
invariant kernel estimation, but also leads to state-of-the-art blind SR
performance when combined with non-blind SR methods.
- Abstract(参考訳): 既存のブラインド画像超解像法(SR)は、ぼやけたカーネルが画像全体にわたって空間的に不変であると仮定する。
しかし、物体の動きや焦点のずれなどの要因により、ぼやけたカーネルが空間的に変動する実際の画像には、そのような仮定が当てはまることはまれである。
したがって、既存の盲点SR法は必然的に実際のアプリケーションで性能が低下する。
そこで本研究では,空間変動カーネル推定のための相互アフィンネットワーク(MANet)を提案する。
具体的には、MANetには2つの特徴がある。
まず、分解の局所性を維持するために、適度な受容場を持つ。
第二に、新しい相互アフィン畳み込み(MAConv)層が、受容場、モデルサイズ、計算負担を増大させることなく特徴表現性を高める。
これはチャネル相互依存性を利用して実現され、各チャネルを残りのチャネル分割を入力とするアフィン変換モジュールで分割する。
合成および実画像の広範にわたる実験により,提案手法は空間的変動と不変なカーネル推定の両方に好適に動作するだけでなく,非盲点SR法と組み合わせた場合の最先端のブラインドSR性能にも寄与することが示された。
関連論文リスト
- BlindDiff: Empowering Degradation Modelling in Diffusion Models for Blind Image Super-Resolution [52.47005445345593]
BlindDiff は SISR のブラインド劣化に対処するための DM ベースのブラインドSR 手法である。
BlindDiffはMAPベースの最適化をDMにシームレスに統合する。
合成データセットと実世界のデータセットの両方の実験は、BlindDiffが最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2024-03-15T11:21:34Z) - Adaptive Multi-modal Fusion of Spatially Variant Kernel Refinement with Diffusion Model for Blind Image Super-Resolution [23.34647832483913]
我々は,Blind Image textbfSuper-textbfResolutionのための拡散モデルを用いた適応多モード固定法(Adaptive Multi-modal Fusion of textbfSpatially Variant Kernel Refinement with Diffusion Model)を提案する。
また,アダプティブ・マルチモーダル・フュージョン (AMF) モジュールを導入し,低解像度画像,深度マップ,ぼかしカーネルといった3つのモードからの情報を整列させる。
論文 参考訳(メタデータ) (2024-03-09T06:01:25Z) - Better "CMOS" Produces Clearer Images: Learning Space-Variant Blur
Estimation for Blind Image Super-Resolution [30.816546273417774]
我々は、空のぼかしを持つ2つの新しいデータセット、すなわちNYUv2-BSRとCityscapes-BSRを導入する。
データセットに基づいて,ブラーとセマンティクスを同時に推定するクロスモーダルファシオンネットワーク(CMOS)を設計する。
論文 参考訳(メタデータ) (2023-04-07T08:40:31Z) - Boosting Few-shot Fine-grained Recognition with Background Suppression
and Foreground Alignment [53.401889855278704]
FS-FGR (Few-shot Fine-fine Recognition) は、限られたサンプルの助けを借りて、新しいきめ細かなカテゴリを認識することを目的としている。
本研究では,背景アクティベーション抑制 (BAS) モジュール,フォアグラウンドオブジェクトアライメント (FOA) モジュール,および局所的局所的(L2L) 類似度測定器からなる2段階の背景アライメントとフォアグラウンドアライメントフレームワークを提案する。
複数のベンチマークで行った実験により,提案手法は既存の最先端技術よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-10-04T07:54:40Z) - Spectrum-to-Kernel Translation for Accurate Blind Image Super-Resolution [33.59749785182318]
任意のぼかしカーネルで劣化したLR画像の超解像化のための新しいブラインドSRフレームワークを提案する。
まず、周波数領域における特徴表現は、空間領域よりもカーネル再構成を曖昧にするため、より導出的であることを示す。
合成画像と実画像の両方で実験した結果,提案手法はカーネル推定誤差を十分に低減することがわかった。
論文 参考訳(メタデータ) (2021-10-23T06:03:22Z) - Blind Image Super-Resolution via Contrastive Representation Learning [41.17072720686262]
マルチモーダルおよび空間変動分布を持つ画像のブラインドSRに着目したコントラスト表現学習ネットワークを設計する。
提案したCRL-SRは,ブラインド設定下でのマルチモーダル・空間変動劣化を効果的に処理可能であることを示す。
また、最先端のSR手法を質的に、定量的に上回る。
論文 参考訳(メタデータ) (2021-07-01T19:34:23Z) - SRWarp: Generalized Image Super-Resolution under Arbitrary
Transformation [65.88321755969677]
ディープCNNは、単一の画像超解像を含む画像処理とそのアプリケーションで大きな成功を収めています。
近年のアプローチでは、実測値のアップサンプリング要因にまで範囲を広げている。
任意の画像変換に向けてSRタスクをさらに一般化するSRWarpフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-21T02:50:41Z) - Frequency Consistent Adaptation for Real World Super Resolution [64.91914552787668]
実シーンにスーパーリゾリューション(SR)法を適用する際に周波数領域の整合性を保証する新しい周波数一貫性適応(FCA)を提案する。
監視されていない画像から劣化カーネルを推定し、対応するLow-Resolution (LR)画像を生成する。
ドメイン一貫性のあるLR-HRペアに基づいて、容易に実装可能な畳み込みニューラルネットワーク(CNN)SRモデルを訓練する。
論文 参考訳(メタデータ) (2020-12-18T08:25:39Z) - Deep Variational Network Toward Blind Image Restoration [60.45350399661175]
ブラインド画像復元はコンピュータビジョンでは一般的だが難しい問題である。
両利点を両立させることを目的として,新しいブラインド画像復元手法を提案する。
画像デノイングと超解像という2つの典型的なブラインド赤外線タスクの実験により,提案手法が現状よりも優れた性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-08-25T03:30:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。