論文の概要: Synthesizing Photorealistic Images with Deep Generative Learning
- arxiv url: http://arxiv.org/abs/2202.12752v1
- Date: Wed, 23 Feb 2022 11:35:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 04:01:09.532200
- Title: Synthesizing Photorealistic Images with Deep Generative Learning
- Title(参考訳): 深層生成学習によるフォトリアリスティック画像合成
- Authors: Chuanxia Zheng
- Abstract要約: この論文は5つの作品から構成されており、それぞれが可愛らしい内容の画像を合成する新しい学習ベースのアプローチと、視覚的に現実的な外観を示す。
各研究は、画像合成における提案手法の優位性を実証し、さらに深度推定などの他の課題に寄与する。
- 参考スコア(独自算出の注目度): 8.789457008123504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of this thesis is to present my research contributions towards
solving various visual synthesis and generation tasks, comprising image
translation, image completion, and completed scene decomposition. This thesis
consists of five pieces of work, each of which presents a new learning-based
approach for synthesizing images with plausible content as well as visually
realistic appearance. Each work demonstrates the superiority of the proposed
approach on image synthesis, with some further contributing to other tasks,
such as depth estimation.
- Abstract(参考訳): 本論文の目的は、画像翻訳、画像補完、完成したシーン分解を含む様々な視覚合成および生成タスクの解決に向けた私の研究成果を提示することである。
この論文は5つの作品から構成されており、それぞれが可愛らしい内容の画像を合成する新しい学習ベースのアプローチと、視覚的に現実的な外観を示す。
それぞれの研究は、画像合成における提案手法の優位を示し、奥行き推定などの他のタスクにも貢献している。
関連論文リスト
- Integrating View Conditions for Image Synthesis [14.738884513493227]
本稿では、視点情報を統合して画像編集タスクの制御を強化する先駆的なフレームワークを提案する。
我々は、画像編集法で満たすべき3つの必須基準、一貫性、可制御性、調和を蒸留する。
論文 参考訳(メタデータ) (2023-10-24T16:55:07Z) - Perceptual Artifacts Localization for Image Synthesis Tasks [59.638307505334076]
我々は10,168個の画像からなる新しいデータセットを導入し,それぞれに知覚的アーティファクトラベルを付加した。
提案したデータセットに基づいてトレーニングされたセグメンテーションモデルは、さまざまなタスクにまたがるアーティファクトを効果的にローカライズする。
生成した画像の知覚的アーティファクトをシームレスに修正する,革新的なズームイン・インペインティングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-10-09T10:22:08Z) - SAMPLING: Scene-adaptive Hierarchical Multiplane Images Representation
for Novel View Synthesis from a Single Image [60.52991173059486]
単一画像からの新規ビュー合成のためのシーン適応型階層型多面体画像表現であるSAMPlingを紹介する。
提案手法は,KITTIデータセット上の単一画像を用いて,大規模非有界屋外シーンにおいてかなりの性能向上を示す。
論文 参考訳(メタデータ) (2023-09-12T15:33:09Z) - Coarse-to-Fine Contrastive Learning in Image-Text-Graph Space for
Improved Vision-Language Compositionality [50.48859793121308]
対照的に訓練された視覚言語モデルは、視覚と言語表現学習において顕著な進歩を遂げた。
近年の研究では、対象、属性、関係性に対して構成的推論を行う能力に厳しい制限が強調されている。
論文 参考訳(メタデータ) (2023-05-23T08:28:38Z) - An Impartial Transformer for Story Visualization [0.0]
Impartial Transformerはテキストに関連のある可視的なシーンとシーケンシャルな一貫性の両方を達成する。
この強化は、閉ざされたオブジェクトによる「硬い」サンプルの合成を扱うことができる。
論文 参考訳(メタデータ) (2023-01-09T18:29:01Z) - Combining Attention with Flow for Person Image Synthesis [55.670135403481275]
本稿では,注目操作とフローベース操作を組み合わせた新しいモデルを提案する。
本モデルでは,アテンション操作を利用して正確なターゲット構造を生成するだけでなく,フローベース操作を用いてリアルなソーステクスチャをサンプリングする。
論文 参考訳(メタデータ) (2021-08-04T03:05:39Z) - Semantic View Synthesis [56.47999473206778]
我々はセマンティック・ビュー・シンセサイザーの新たな課題に取り組み、セマンティック・ラベル・マップを入力として、合成シーンの自由視点レンダリングを生成する。
まず,3次元映像の視覚面の色と深度を合成することに焦点を当てた。
次に、合成色と深度を用いて、多面画像(MPI)表現予測プロセスに明示的な制約を課す。
論文 参考訳(メタデータ) (2020-08-24T17:59:46Z) - Hierarchy Composition GAN for High-fidelity Image Synthesis [57.32311953820988]
本稿では,革新的階層構成GAN(HIC-GAN)を提案する。
HIC-GANは、幾何学と外観領域における画像合成をエンドツーエンドのトレーニング可能なネットワークに組み込んでいる。
シーンテキスト画像合成, 肖像画編集, 室内レンダリングタスクの実験により, 提案したHIC-GANは, 質的, 定量的に優れた合成性能が得られることを示した。
論文 参考訳(メタデータ) (2019-05-12T11:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。