論文の概要: Nested Scale Editing for Conditional Image Synthesis
- arxiv url: http://arxiv.org/abs/2006.02038v1
- Date: Wed, 3 Jun 2020 04:29:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 18:01:49.038189
- Title: Nested Scale Editing for Conditional Image Synthesis
- Title(参考訳): 条件付き画像合成のためのネストスケール編集
- Authors: Lingzhi Zhang, Jiancong Wang, Yinshuang Xu, Jie Min, Tarmily Wen,
James C. Gee, Jianbo Shi
- Abstract要約: 本稿では,潜在コード空間における階層化ナビゲーションを実現する画像合成手法を提案する。
ごく少数の部分的あるいは低解像度の画像で、我々のアプローチは一貫して最先端の画像よりも優れています。
- 参考スコア(独自算出の注目度): 19.245119912119947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an image synthesis approach that provides stratified navigation in
the latent code space. With a tiny amount of partial or very low-resolution
image, our approach can consistently out-perform state-of-the-art counterparts
in terms of generating the closest sampled image to the ground truth. We
achieve this through scale-independent editing while expanding scale-specific
diversity. Scale-independence is achieved with a nested scale disentanglement
loss. Scale-specific diversity is created by incorporating a progressive
diversification constraint. We introduce semantic persistency across the scales
by sharing common latent codes. Together they provide better control of the
image synthesis process. We evaluate the effectiveness of our proposed approach
through various tasks, including image outpainting, image superresolution, and
cross-domain image translation.
- Abstract(参考訳): 本稿では,潜在コード空間における階層化ナビゲーションを実現する画像合成手法を提案する。
ごく少数の部分的あるいは非常に低解像度の画像で、我々のアプローチは、地上の真実に最も近いサンプル画像を生成するという点で、一貫して最先端の画像を生成することができる。
我々は、スケール固有の多様性を拡大しながら、スケール非依存の編集によってこれを達成する。
スケール独立性は、ネストされたスケールの歪み損失によって達成される。
スケール固有の多様性は、プログレッシブな多様化制約を取り入れることで生成される。
我々は、共通の潜在コードを共有することによって、スケールにまたがる意味的永続性を導入する。
共に、画像合成プロセスのより優れた制御を提供する。
提案手法の有効性は,画像出力,画像スーパーレゾリューション,ドメイン間画像変換など,様々なタスクを通じて評価する。
関連論文リスト
- Generative Powers of Ten [60.6740997942711]
本稿では,複数の画像スケールにまたがる一貫したコンテンツを生成するために,テキスト・ツー・イメージ・モデルを用いる手法を提案する。
マルチスケール拡散サンプリングを共同で行うことで実現した。
本手法は従来の超解像法よりも深いズームレベルを実現する。
論文 参考訳(メタデータ) (2023-12-04T18:59:25Z) - Layered Rendering Diffusion Model for Zero-Shot Guided Image Synthesis [60.260724486834164]
本稿では,テキストクエリに依存する拡散モデルにおける空間制御性向上のための革新的な手法を提案する。
視覚誘導(Vision Guidance)とレイヤーレンダリング拡散(Layered Rendering Diffusion)フレームワーク(Layered Diffusion)という2つの重要なイノベーションを提示します。
本稿では,ボックス・ツー・イメージ,セマンティック・マスク・ツー・イメージ,画像編集の3つの実践的応用に適用する。
論文 参考訳(メタデータ) (2023-11-30T10:36:19Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - Arbitrary-Scale Image Synthesis [149.0290830305808]
位置エンコーディングにより、1つの敵ネットワークをトレーニングし、異なるスケールの画像を生成することができる。
生成器の変換層に不変なスケール一貫性のある位置符号化の設計を提案する。
画像合成のための様々な一般的なデータセットに対して,連続したスケールの競合結果を示す。
論文 参考訳(メタデータ) (2022-04-05T15:10:43Z) - Diverse Semantic Image Synthesis via Probability Distribution Modeling [103.88931623488088]
新規な多様な意味的画像合成フレームワークを提案する。
本手法は最先端手法と比較して優れた多様性と同等の品質を実現することができる。
論文 参考訳(メタデータ) (2021-03-11T18:59:25Z) - Panoptic-based Image Synthesis [32.82903428124024]
条件付き画像合成は、コンテンツ編集からコンテンツ生成への様々な応用を提供する。
本研究では,パノプティカルマップに条件付き高忠実度・光実写画像を生成するために,パノプティカル・アウェア・イメージ合成ネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-21T20:40:53Z) - Multimodal Image Synthesis with Conditional Implicit Maximum Likelihood
Estimation [54.17177006826262]
我々はImplicit Maximum Likelihood Estimation (IMLE)に基づく新しい一般条件画像合成法を開発した。
我々は,シーンレイアウトからの単一画像超解像と画像合成という,2つのタスクにおけるマルチモーダル画像合成性能の改善を実証した。
論文 参考訳(メタデータ) (2020-04-07T03:06:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。