論文の概要: DeepSEE: Deep Disentangled Semantic Explorative Extreme Super-Resolution
- arxiv url: http://arxiv.org/abs/2004.04433v3
- Date: Fri, 2 Oct 2020 08:48:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 02:37:30.311825
- Title: DeepSEE: Deep Disentangled Semantic Explorative Extreme Super-Resolution
- Title(参考訳): deepsee: 深く絡み合ったセマンティックな探索的極端超解像
- Authors: Marcel C. B\"uhler, Andr\'es Romero, Radu Timofte
- Abstract要約: 本稿では,Deep Disentangled Semantic Explorative Extreme Super- resolutionのための爆発的顔超解像フレームワークであるDeepSEEを提案する。
DeepSEEは、爆発的な超解像のためにセマンティックマップを利用する最初の方法である。
顔上のDeepSEEを最大32倍の倍率で検証し,超解像空間の探索を行う。
- 参考スコア(独自算出の注目度): 77.34726150561087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Super-resolution (SR) is by definition ill-posed. There are infinitely many
plausible high-resolution variants for a given low-resolution natural image.
Most of the current literature aims at a single deterministic solution of
either high reconstruction fidelity or photo-realistic perceptual quality. In
this work, we propose an explorative facial super-resolution framework,
DeepSEE, for Deep disentangled Semantic Explorative Extreme super-resolution.
To the best of our knowledge, DeepSEE is the first method to leverage semantic
maps for explorative super-resolution. In particular, it provides control of
the semantic regions, their disentangled appearance and it allows a broad range
of image manipulations. We validate DeepSEE on faces, for up to 32x
magnification and exploration of the space of super-resolution. Our code and
models are available at: https://mcbuehler.github.io/DeepSEE/
- Abstract(参考訳): 超解像 (SR) は定義上不規則である。
与えられた低解像度自然画像には無限に多くの可能な高分解能変種が存在する。
現在の文学のほとんどが、高い再構成忠実性またはフォトリアリスティックな知覚品質の単一の決定論的解決を目標としている。
本研究では,Deep Disentangled Semantic Explorative Extreme Super- resolutionのための爆発的顔超解像フレームワークDeepSEEを提案する。
私たちの知る限りでは、DeepSEEは爆発的な超解像のためにセマンティックマップを利用する最初の方法です。
特に、セマンティック領域の制御、不整合の外観を提供し、幅広い画像操作を可能にする。
顔上のDeepSEEを最大32倍の倍率で検証し,超解像空間の探索を行う。
私たちのコードとモデルは以下の通りです。
関連論文リスト
- Decoupling Fine Detail and Global Geometry for Compressed Depth Map Super-Resolution [55.9977636042469]
ビット深度圧縮は、微妙な変化のある領域で均一な深度表現を生成し、詳細情報の回復を妨げる。
密集したランダムノイズは、シーンのグローバルな幾何学的構造を推定する精度を低下させる。
圧縮深度マップ超解像のための新しいフレームワークGDNetを提案する。
論文 参考訳(メタデータ) (2024-11-05T16:37:30Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - Guided Depth Super-Resolution by Deep Anisotropic Diffusion [18.445649181582823]
誘導異方性拡散と深層畳み込みネットワークを組み合わせた新しい手法を提案する。
誘導深度超解像のための3つの一般的なベンチマークで前例のない結果を得た。
論文 参考訳(メタデータ) (2022-11-21T15:48:13Z) - Towards Fast and Accurate Real-World Depth Super-Resolution: Benchmark
Dataset and Baseline [48.69396457721544]
深度写像スーパーリゾリューション(SR)の研究を促進するために,RGB-D-Dという大規模データセットを構築した。
本稿では、RGB画像から高周波成分を適応的に分解して深度マップSRを導出する高速深度マップ超解像(FDSR)ベースラインを提供する。
実世界のLR深度マップでは、より明確な境界を持つより正確なHR深度マップを作成でき、ある程度の精度で深度値誤差を補正できる。
論文 参考訳(メタデータ) (2021-04-13T13:27:26Z) - Deep Learning-based Face Super-resolution: A Survey [78.11274281686246]
顔の超解像、別名顔の幻覚は、ドメイン固有のイメージの超解像問題です。
現在、深層学習に基づく顔の超解像に関する研究の要約は少ない。
本調査では,超解像面における深層学習の手法を体系的に総合的に検討する。
論文 参考訳(メタデータ) (2021-01-11T08:17:11Z) - HR-Depth: High Resolution Self-Supervised Monocular Depth Estimation [14.81943833870932]
本稿では,2つの効果的な戦略を持つ改良DepthNet,HR-Depthを提案する。
resnet-18をエンコーダとして使用すると、hr-depthは、高解像度と低解像度の両方で最小パラマエターを持つ、以前の最先端(sota)メソッドをすべて上回る。
論文 参考訳(メタデータ) (2020-12-14T09:15:15Z) - Multi-Scale Progressive Fusion Learning for Depth Map Super-Resolution [11.072332820377612]
深度カメラが収集する深度マップの解像度は、RGBカメラの解像度よりも低いことが多い。
深度マップの超解法における大きな問題は、明らかにギザギザと細部が過剰に失われることである。
本稿では,各領域に階層的特徴を統合する構造を持つ深度マップSRのためのマルチスケールプログレッシブ・フュージョン・ネットワークを提案する。
論文 参考訳(メタデータ) (2020-11-24T03:03:07Z) - PULSE: Self-Supervised Photo Upsampling via Latent Space Exploration of
Generative Models [77.32079593577821]
PULSE (Photo Upsampling via Latent Space Exploration) は、それまで文献になかった解像度で高解像度でリアルな画像を生成する。
本手法は, 従来よりも高分解能, スケールファクターの知覚品質において, 最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-08T16:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。