論文の概要: FacadeNet: Conditional Facade Synthesis via Selective Editing
- arxiv url: http://arxiv.org/abs/2311.01240v1
- Date: Thu, 2 Nov 2023 13:57:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 13:25:00.454375
- Title: FacadeNet: Conditional Facade Synthesis via Selective Editing
- Title(参考訳): FacadeNet:選択編集による条件付きファサード合成
- Authors: Yiangos Georgiou and Marios Loizou and Tom Kelly and Melinos Averkiou
- Abstract要約: 多様な視点からファサードイメージを構築するためのディープラーニングアプローチであるFacadeNetを紹介する。
本手法では,条件付きGANを用いて,所望の視点情報とともにファサードの単一ビューを取得し,異なる視点からファサードの画像を生成する。
- 参考スコア(独自算出の注目度): 2.0739760901716755
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce FacadeNet, a deep learning approach for synthesizing building
facade images from diverse viewpoints. Our method employs a conditional GAN,
taking a single view of a facade along with the desired viewpoint information
and generates an image of the facade from the distinct viewpoint. To precisely
modify view-dependent elements like windows and doors while preserving the
structure of view-independent components such as walls, we introduce a
selective editing module. This module leverages image embeddings extracted from
a pre-trained vision transformer. Our experiments demonstrated state-of-the-art
performance on building facade generation, surpassing alternative methods.
- Abstract(参考訳): 多様な視点からファサードイメージを構築するためのディープラーニングアプローチであるFacadeNetを紹介する。
本手法では,条件付きGANを用いて,所望の視点情報とともにファサードの単一ビューを取得し,異なる視点からファサードの画像を生成する。
壁などのビューに依存しないコンポーネントの構造を維持しつつ,窓やドアなどのビュー依存要素を正確に修正するために,選択的な編集モジュールを導入する。
このモジュールは、事前訓練されたビジョントランスから抽出された画像埋め込みを利用する。
本実験は, ファサード生成における最先端性能を実証し, 代替手法を超越した。
関連論文リスト
- UpFusion: Novel View Diffusion from Unposed Sparse View Observations [66.36092764694502]
UpFusionは、参照画像のスパースセットが与えられたオブジェクトに対して、新しいビュー合成と3D表現を推論することができる。
本研究では,この機構により,付加された(未提示)画像の合成品質を向上しつつ,高忠実度な新規ビューを生成することができることを示す。
論文 参考訳(メタデータ) (2023-12-11T18:59:55Z) - MuVieCAST: Multi-View Consistent Artistic Style Transfer [6.767885381740952]
モジュール型マルチビュー一貫したスタイル転送ネットワークアーキテクチャである MuVieCAST を紹介する。
MuVieCASTはスパースビューと高密度ビューの両方をサポートし、幅広いマルチビューイメージデータセットを扱うのに十分な汎用性を持つ。
論文 参考訳(メタデータ) (2023-12-08T14:01:03Z) - Disentangling Structure and Appearance in ViT Feature Space [26.233355454282446]
本稿では,ある自然画像の視覚的外観を別の自然画像に意味的に伝達する手法を提案する。
具体的には、ソース構造画像中のオブジェクトを、ターゲットの外観画像中のそれらの意味的関連オブジェクトの視覚的外観で“ペイント”する画像を生成する。
本研究では,特定の領域から画像のデータセットに基づいて学習したフィードフォワードリアルタイムな外見伝達モデルであるSpliceNetと,一対の構造化画像に対してジェネレータをトレーニングすることで機能するセマンティックな外見伝達の2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-20T21:20:15Z) - PAIR-Diffusion: A Comprehensive Multimodal Object-Level Image Editor [135.17302411419834]
PAIR Diffusionは、画像内の各オブジェクトの構造と外観を制御する拡散モデルを可能にする汎用フレームワークである。
画像中の各オブジェクトのプロパティを制御できることが、包括的な編集機能に繋がることを示す。
我々のフレームワークは、参照画像ベースの外観編集、自由形形状編集、オブジェクトの追加、バリエーションなど、実際の画像に対する様々なオブジェクトレベルの編集操作を可能にする。
論文 参考訳(メタデータ) (2023-03-30T17:13:56Z) - Text Semantics to Image Generation: A method of building facades design
base on Stable Diffusion model [0.0]
本研究では,マルチネットワーク合成によるファサード画像生成手法を提案する。
LoRAアプローチを用いて,CMP Fa-cadesデータセット上で安定拡散モデルを微調整した。
ControlNetモデルの追加により、ファサードイメージを構築するためのテキスト生成の制御性が向上する。
論文 参考訳(メタデータ) (2023-02-23T14:03:07Z) - Share With Thy Neighbors: Single-View Reconstruction by Cross-Instance
Consistency [59.427074701985795]
単一ビューの再構築は通常、視点アノテーション、シルエット、背景の欠如、同じインスタンスの複数のビュー、テンプレートの形状、対称性に依存する。
異なるオブジェクトインスタンスのイメージ間の一貫性を明確に活用することで、これらの監督と仮説をすべて回避します。
i)プログレッシブ・コンディショニング(プログレッシブ・コンディショニング)、(ii)類似の形状やテクスチャを持つインスタンス間の一貫性の喪失、(ii)モデルのカテゴリからインスタンスへと徐々に専門化するためのトレーニング戦略。
論文 参考訳(メタデータ) (2022-04-21T17:47:35Z) - Cross-View Panorama Image Synthesis [68.35351563852335]
PanoGANは、新しい敵対的フィードバックGANフレームワークである。
PanoGANは、最先端のアプローチよりもより説得力のある、高品質なパノラマ画像生成を可能にする。
論文 参考訳(メタデータ) (2022-03-22T15:59:44Z) - Splicing ViT Features for Semantic Appearance Transfer [10.295754142142686]
本稿では,ある自然画像の視覚的外観を別の自然画像に意味的に伝達する手法を提案する。
具体的には、ソース構造画像中のオブジェクトを、ターゲットの外観画像中のそれらの意味的関連オブジェクトの視覚的外観で“ペイント”する画像を生成する。
論文 参考訳(メタデータ) (2022-01-02T22:00:34Z) - Novel View Synthesis from a Single Image via Unsupervised learning [27.639536023956122]
本研究では,そのような画素変換を単一ソース視点から学習するための教師なしネットワークを提案する。
学習した変換により、未知のポーズの単一のソース視点画像から新しいビューを合成することができる。
論文 参考訳(メタデータ) (2021-10-29T06:32:49Z) - RetrieveGAN: Image Synthesis via Differentiable Patch Retrieval [76.87013602243053]
本稿では,シーン記述からイメージを抽出したパッチを参照として合成する,識別可能な検索モジュールを提案する。
提案手法が現実的かつ多様な画像を生成可能であることを示すため,広範に定量的かつ定性的な実験を行った。
論文 参考訳(メタデータ) (2020-07-16T17:59:04Z) - Disentangled Image Generation Through Structured Noise Injection [48.956122902434444]
生成ネットワークの第1層における乱れは生成した画像の乱れにつながることを示す。
本研究では,前景の空間的ゆがみ,空間的ゆがみ,空間的ゆがみ,背景からの物体のゆがみを実現する。
これは、FFHQデータセットの最先端のメソッドよりも、実証的に不整合スコアが向上する。
論文 参考訳(メタデータ) (2020-04-26T15:15:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。