論文の概要: LFSRDiff: Light Field Image Super-Resolution via Diffusion Models
- arxiv url: http://arxiv.org/abs/2311.16517v1
- Date: Mon, 27 Nov 2023 07:31:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 19:47:48.699457
- Title: LFSRDiff: Light Field Image Super-Resolution via Diffusion Models
- Title(参考訳): LFSRDiff:拡散モデルによる光フィールド画像の超解像
- Authors: Wentao Chao, Fuqing Duan, Xuechun Wang, Yingqian Wang, Guanghui Wang
- Abstract要約: 光電場(LF)画像超解像(SR)は、固有の不適切な性質のため難しい問題である。
主流のLF画像SR法は、一般的に決定論的アプローチを採用し、ピクセル単位の損失関数によって制御される1つの出力しか生成しない。
本稿では,最初の拡散型LF画像SRモデルであるLPSRDiffを紹介する。
- 参考スコア(独自算出の注目度): 18.20217829625834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Light field (LF) image super-resolution (SR) is a challenging problem due to
its inherent ill-posed nature, where a single low-resolution (LR) input LF
image can correspond to multiple potential super-resolved outcomes. Despite
this complexity, mainstream LF image SR methods typically adopt a deterministic
approach, generating only a single output supervised by pixel-wise loss
functions. This tendency often results in blurry and unrealistic results.
Although diffusion models can capture the distribution of potential SR results
by iteratively predicting Gaussian noise during the denoising process, they are
primarily designed for general images and struggle to effectively handle the
unique characteristics and information present in LF images. To address these
limitations, we introduce LFSRDiff, the first diffusion-based LF image SR
model, by incorporating the LF disentanglement mechanism. Our novel
contribution includes the introduction of a disentangled U-Net for diffusion
models, enabling more effective extraction and fusion of both spatial and
angular information within LF images. Through comprehensive experimental
evaluations and comparisons with the state-of-the-art LF image SR methods, the
proposed approach consistently produces diverse and realistic SR results. It
achieves the highest perceptual metric in terms of LPIPS. It also demonstrates
the ability to effectively control the trade-off between perception and
distortion. The code is available at
\url{https://github.com/chaowentao/LFSRDiff}.
- Abstract(参考訳): 光場(LF)画像超解像(SR)は、その固有の不適切な性質のため、単一の低解像度(LR)入力LF画像が複数の潜在的な超解像と対応できるため、難しい問題である。
この複雑さにもかかわらず、主流のLF画像SR法は一般的に決定論的アプローチを採用し、ピクセルワイズ損失関数によって制御される単一の出力のみを生成する。
この傾向はしばしば曖昧で非現実的な結果をもたらす。
拡散モデルは、発声過程中にガウス雑音を反復的に予測することでsr結果の分布を捉えることができるが、それらは主に一般的な画像のために設計されており、lf画像に存在するユニークな特徴と情報を効果的に扱うのに苦労している。
これらの制約に対処するために,最初の拡散型LF画像SRモデルであるLPSRDiffを導入する。
本研究は,空間情報と角情報の両方をlf画像内でより効果的に抽出・融合できる拡散モデルのための異方性 u-net を導入することを目的としている。
提案手法は,最先端のLF画像SR手法と総合的な実験評価と比較により,多種多様な現実的なSR結果を生成する。
LPIPSでは最も高い知覚基準を達成している。
また、知覚と歪みの間のトレードオフを効果的に制御する能力を示す。
コードは \url{https://github.com/chaowentao/lfsrdiff} で入手できる。
関連論文リスト
- LoLiSRFlow: Joint Single Image Low-light Enhancement and
Super-resolution via Cross-scale Transformer-based Conditional Flow [8.929704596997913]
ローライト強化(LLE)とスーパーレゾリューション(SR)に固有の劣化機構を検討するため,LoLiSRFLowと呼ばれる正規化フローネットワークを提案する。
LoLiSRFLowは、高解像度で露呈された画像に対する様々な実現可能な解に対する条件付き確率分布を学習する。
また,7100個の低分解能暗黒/高分解能のシャープペアを含むDFSR-LLEという,現実的な低分解能劣化をモデル化した合成データセットを提案する。
論文 参考訳(メタデータ) (2024-02-29T05:40:43Z) - Diffusion-based Light Field Synthesis [50.24624071354433]
LFdiffは、LF合成に適した拡散ベースの生成フレームワークである。
本稿では,遠絡型雑音推定ネットワークDistgUnetを提案する。
広範囲な実験により、LFdiffは視覚的に快く、不均一に制御可能な光電場を合成する際に優れていることが示されている。
論文 参考訳(メタデータ) (2024-02-01T13:13:16Z) - Local Implicit Normalizing Flow for Arbitrary-Scale Image
Super-Resolution [11.653044501483667]
本稿では, 上記の問題に対する統一解として, ローカルインプリシト正規化フロー (LINF) を提案する。
LINFは、流れの正規化を伴う異なるスケーリング要因下でのテクスチャの詳細な分布をモデル化する。
LINFは、従来の任意のスケールのSR手法と比較して、最先端の知覚品質を実現していることを示す。
論文 参考訳(メタデータ) (2023-03-09T10:20:07Z) - Blind Super-Resolution for Remote Sensing Images via Conditional
Stochastic Normalizing Flows [14.882417028542855]
本稿では、上記の問題に対処するために、正規化フロー(BlindSRSNF)に基づく新しいブラインドSRフレームワークを提案する。
BlindSRSNFは、低解像度(LR)画像が与えられた高解像度画像空間上の条件確率分布を、確率の変動境界を明示的に最適化することによって学習する。
提案アルゴリズムは,シミュレーションLRと実世界RSIの両方において,視覚的品質の優れたSR結果が得られることを示す。
論文 参考訳(メタデータ) (2022-10-14T12:37:32Z) - Real-World Light Field Image Super-Resolution via Degradation Modulation [59.68036846233918]
本稿では,実世界のLF画像 SR の簡易かつ効果的な手法を提案する。
実際のLF画像の劣化過程を定式化するために,実用的なLF劣化モデルを開発した。
畳み込みニューラルネットワークは、SRプロセスの前に分解を組み込むように設計されている。
論文 参考訳(メタデータ) (2022-06-13T14:44:46Z) - SRDiff: Single Image Super-Resolution with Diffusion Probabilistic
Models [19.17571465274627]
単一の画像スーパーリゾリューション(SISR)は、与えられた低リゾリューション(LR)画像から高解像度(HR)画像を再構成することを目的とする。
新規な単像超解像拡散確率モデル(SRDiff)を提案する。
SRDiffはデータ可能性の変動境界の変種に最適化されており、多様で現実的なSR予測を提供することができる。
論文 参考訳(メタデータ) (2021-04-30T12:31:25Z) - Frequency Consistent Adaptation for Real World Super Resolution [64.91914552787668]
実シーンにスーパーリゾリューション(SR)法を適用する際に周波数領域の整合性を保証する新しい周波数一貫性適応(FCA)を提案する。
監視されていない画像から劣化カーネルを推定し、対応するLow-Resolution (LR)画像を生成する。
ドメイン一貫性のあるLR-HRペアに基づいて、容易に実装可能な畳み込みニューラルネットワーク(CNN)SRモデルを訓練する。
論文 参考訳(メタデータ) (2020-12-18T08:25:39Z) - Deep Selective Combinatorial Embedding and Consistency Regularization
for Light Field Super-resolution [93.95828097088608]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LFサブアパーチャ画像間のコヒーレンスを探索するための,新しい学習ベースLF空間SRフレームワークを提案する。
合成および実世界のLFデータセットに対する実験結果は、最先端手法に対する我々のアプローチの顕著な利点を示している。
論文 参考訳(メタデータ) (2020-09-26T08:34:37Z) - SRFlow: Learning the Super-Resolution Space with Normalizing Flow [176.07982398988747]
超解像度は、与えられた低解像度画像の複数の予測を可能にするため、不適切な問題である。
出力の条件分布を学習できる正規化フローベース超解法SRFlowを提案する。
我々のモデルは、単一損失、すなわち負のログ類似度を用いて、原則的に訓練されている。
論文 参考訳(メタデータ) (2020-06-25T06:34:04Z) - Light Field Spatial Super-resolution via Deep Combinatorial Geometry
Embedding and Structural Consistency Regularization [99.96632216070718]
ハンドヘルドデバイスが取得した光フィールド(LF)画像は通常、空間分解能の低下に悩まされる。
LF画像の高次元空間特性と複雑な幾何学構造は、従来の単一像SRよりも問題をより困難にしている。
本稿では,LF画像の各ビューを個別に超解答する新しい学習ベースLFフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-05T14:39:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。