論文の概要: Super-Resolving Cross-Domain Face Miniatures by Peeking at One-Shot
Exemplar
- arxiv url: http://arxiv.org/abs/2103.08863v1
- Date: Tue, 16 Mar 2021 05:47:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 13:37:33.400743
- Title: Super-Resolving Cross-Domain Face Miniatures by Peeking at One-Shot
Exemplar
- Title(参考訳): ワンショットで見る超高分解能クロスドメイン顔ミニチュア
- Authors: Peike Li, Xin Yu, Yi Yang
- Abstract要約: DAP-FSRネットワークというドメイン対応ピラミッド型顔超解像ネットワークを開発した。
DAP-FSRは、ターゲットドメイン内の一対の高分解能(HR)とLRの例のみを利用して、ターゲットドメインからLR面を超解決する最初の試みです。
遅延表現とデコーダを反復的に更新することで、DAP-FSRはターゲットドメインに適応する。
- 参考スコア(独自算出の注目度): 42.78574493628936
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Conventional face super-resolution methods usually assume testing
low-resolution (LR) images lie in the same domain as the training ones. Due to
different lighting conditions and imaging hardware, domain gaps between
training and testing images inevitably occur in many real-world scenarios.
Neglecting those domain gaps would lead to inferior face super-resolution (FSR)
performance. However, how to transfer a trained FSR model to a target domain
efficiently and effectively has not been investigated. To tackle this problem,
we develop a Domain-Aware Pyramid-based Face Super-Resolution network, named
DAP-FSR network. Our DAP-FSR is the first attempt to super-resolve LR faces
from a target domain by exploiting only a pair of high-resolution (HR) and LR
exemplar in the target domain. To be specific, our DAP-FSR firstly employs its
encoder to extract the multi-scale latent representations of the input LR face.
Considering only one target domain example is available, we propose to augment
the target domain data by mixing the latent representations of the target
domain face and source domain ones, and then feed the mixed representations to
the decoder of our DAP-FSR. The decoder will generate new face images
resembling the target domain image style. The generated HR faces in turn are
used to optimize our decoder to reduce the domain gap. By iteratively updating
the latent representations and our decoder, our DAP-FSR will be adapted to the
target domain, thus achieving authentic and high-quality upsampled HR faces.
Extensive experiments on three newly constructed benchmarks validate the
effectiveness and superior performance of our DAP-FSR compared to the
state-of-the-art.
- Abstract(参考訳): 従来の顔超解像法では、通常、低解像度(LR)画像のテストはトレーニング画像と同じ領域にあると仮定する。
異なる照明条件と撮像ハードウェアのため、トレーニングとテストの間のドメインギャップは多くの現実世界のシナリオで必然的に発生する。
これらの領域ギャップを無視すると、下面超解像(FSR)の性能が低下する。
しかし、訓練されたFSRモデルをターゲット領域に効率的に効率的に転送する方法は研究されていない。
この問題に対処するため,ドメイン対応ピラミッド型顔超解像ネットワークDAP-FSRを開発した。
DAP-FSRは、ターゲット領域における高分解能(HR)と高分解能(LR)のみを活用することにより、ターゲット領域からLR面を超解する最初の試みである。
具体的には、DAP-FSRはまずエンコーダを用いて、入力LR面のマルチスケール潜在表現を抽出する。
対象ドメインの例が1つしかないことを考慮し、対象ドメインの顔とソースドメインの潜在表現を混合して対象ドメインデータを拡張し、その混合表現をDAP-FSRのデコーダに供給することを提案する。
デコーダは、ターゲットドメインイメージスタイルに似た新しい顔画像を生成する。
生成されたHRフェイスは、ドメインギャップを減らすためにデコーダの最適化に使用される。
遅延表現とデコーダを反復的に更新することにより、DAP-FSRはターゲット領域に適応し、真正かつ高品質なHR面を実現する。
新たに構築した3つのベンチマークに関する広範囲な実験により,dap-fsrの有効性と優れた性能が得られた。
関連論文リスト
- Source-free Domain Adaptive Object Detection in Remote Sensing Images [11.19538606490404]
本研究では,RS画像のソースフリーオブジェクト検出(SFOD)設定を提案する。
これは、ソース事前学習モデルのみを使用してターゲットドメイン適応を実行することを目的としている。
本手法では,ソース領域RS画像へのアクセスは不要である。
論文 参考訳(メタデータ) (2024-01-31T15:32:44Z) - Enhancing Visual Domain Adaptation with Source Preparation [5.287588907230967]
ドメイン適応技術は、ソースドメイン自体の特性を考慮できません。
本稿では,ソース領域バイアスを軽減する手法であるソース準備(SP)を提案する。
また,ベースライン上のmIoUでは最大40.64%の改善が見られた。
論文 参考訳(メタデータ) (2023-06-16T18:56:44Z) - I2F: A Unified Image-to-Feature Approach for Domain Adaptive Semantic
Segmentation [55.633859439375044]
意味的セグメンテーションのための教師なしドメイン適応(UDA)は、重いアノテーション作業から人々を解放する有望なタスクである。
この問題に対処する主要なアイデアは、画像レベルと特徴レベルの両方を共同で実行することである。
本稿では,画像レベルと特徴レベルを統一したセマンティックセグメンテーションのための新しいUDAパイプラインを提案する。
論文 参考訳(メタデータ) (2023-01-03T15:19:48Z) - Unsupervised Domain Adaptation for Semantic Segmentation using One-shot
Image-to-Image Translation via Latent Representation Mixing [9.118706387430883]
超高解像度画像のセマンティックセグメンテーションのための新しい教師なし領域適応法を提案する。
潜在コンテンツ表現をドメイン間で混合するエンコーダ・デコーダの原理に基づいて,画像から画像への変換パラダイムを提案する。
都市間比較実験により,提案手法は最先端領域適応法より優れていることが示された。
論文 参考訳(メタデータ) (2022-12-07T18:16:17Z) - Real-World Image Super Resolution via Unsupervised Bi-directional Cycle
Domain Transfer Learning based Generative Adversarial Network [14.898170534545727]
UBCDTLGAN(Unsupervised Bi-directional Cycle Domain Transfer Learning-based Generative Adrial Network)を提案する。
まず、UBCDTNは、人工劣化領域から実世界の画像領域にLR画像を転送することで、近似された実状LR画像を生成することができる。
第二に、SESRNは、近似されたリアルライクなLR画像をフォトリアリスティックなHR画像に超解ける能力を持っている。
論文 参考訳(メタデータ) (2022-11-19T02:19:21Z) - Dual Adversarial Adaptation for Cross-Device Real-World Image
Super-Resolution [114.26933742226115]
異なるデバイスからの画像に基づいて訓練された超高解像度(SR)モデルは、異なる画像パターンを示す可能性がある。
本稿では、DADA(Dual Adversarial Adaptation)という、実世界のSRのための教師なしドメイン適応機構を提案する。
3台のカメラで6台のリアル・トゥ・リアル・アダプティブ・セッティングで実験を行い、既存の最先端のアプローチと比較して優れた性能を実現した。
論文 参考訳(メタデータ) (2022-05-07T02:55:39Z) - Memory-augmented Deep Unfolding Network for Guided Image
Super-resolution [67.83489239124557]
誘導画像超解像(GISR)は、HR画像の誘導の下で低解像度(LR)目標画像の空間分解能を高めて高解像度(HR)目標画像を得る。
従来のモデルベース手法は主に画像全体を取り、HR目標画像とHRガイダンス画像との事前分布を仮定する。
HR目標画像上で2種類の事前性を持つGISRの最大後部(MAP)推定モデルを提案する。
論文 参考訳(メタデータ) (2022-02-12T15:37:13Z) - Best-Buddy GANs for Highly Detailed Image Super-Resolution [71.13466303340192]
我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
論文 参考訳(メタデータ) (2021-03-29T02:58:27Z) - Pixel-Level Cycle Association: A New Perspective for Domain Adaptive
Semantic Segmentation [169.82760468633236]
本稿では,ソースとターゲットの画素ペア間の画素レベルサイクルの関連性を構築することを提案する。
我々の手法は1段階のエンドツーエンドで訓練でき、追加のパラメータは導入しない。
論文 参考訳(メタデータ) (2020-10-31T00:11:36Z) - Deep Cyclic Generative Adversarial Residual Convolutional Networks for
Real Image Super-Resolution [20.537597542144916]
我々は、LRとHRデータ分布間の領域整合性を維持するために、深い循環ネットワーク構造を考える。
本稿では,LRからHRドメインへの変換のためのGAN(Generative Adversarial Network)フレームワークを用いた学習により,超解像残留周期生成逆ネットワーク(SRResCycGAN)を提案する。
論文 参考訳(メタデータ) (2020-09-07T11:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。