論文の概要: Towards Realistic 3D Embedding via View Alignment
- arxiv url: http://arxiv.org/abs/2007.07066v3
- Date: Mon, 24 Apr 2023 12:36:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 01:57:55.932136
- Title: Towards Realistic 3D Embedding via View Alignment
- Title(参考訳): ビューアライメントによるリアルな3d埋め込みに向けて
- Authors: Changgong Zhang, Fangneng Zhan, Shijian Lu, Feiying Ma and Xuansong
Xie
- Abstract要約: 本稿では,3次元モデルを2次元背景画像に現実的に,かつ自動的に埋め込み,新たな画像を構成する,革新的なビューアライメントGAN(VA-GAN)を提案する。
VA-GANはテクスチャジェネレータとディファレンシャルディスクリミネーターで構成され、相互接続され、エンドツーエンドのトレーニングが可能である。
- 参考スコア(独自算出の注目度): 53.89445873577063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in generative adversarial networks (GANs) have achieved great
success in automated image composition that generates new images by embedding
interested foreground objects into background images automatically. On the
other hand, most existing works deal with foreground objects in two-dimensional
(2D) images though foreground objects in three-dimensional (3D) models are more
flexible with 360-degree view freedom. This paper presents an innovative View
Alignment GAN (VA-GAN) that composes new images by embedding 3D models into 2D
background images realistically and automatically. VA-GAN consists of a texture
generator and a differential discriminator that are inter-connected and
end-to-end trainable. The differential discriminator guides to learn geometric
transformation from background images so that the composed 3D models can be
aligned with the background images with realistic poses and views. The texture
generator adopts a novel view encoding mechanism for generating accurate object
textures for the 3D models under the estimated views. Extensive experiments
over two synthesis tasks (car synthesis with KITTI and pedestrian synthesis
with Cityscapes) show that VA-GAN achieves high-fidelity composition
qualitatively and quantitatively as compared with state-of-the-art generation
methods.
- Abstract(参考訳): 近年のGAN(Generative Adversarial Network)の進歩は,対象物を自動的に背景画像に埋め込み,新たな画像を生成する自動画像合成において大きな成功を収めている。
一方、既存の作品の多くは2次元(2d)画像で前景オブジェクトを扱うが、3次元(3d)モデルの前景オブジェクトは360度自由度でより柔軟である。
本稿では,3次元モデルを2次元背景画像に現実的に,かつ自動で埋め込み,新たな画像を構成する革新的なビューアライメントGAN(VA-GAN)を提案する。
VA-GANはテクスチャジェネレータと、相互接続およびエンドツーエンドのトレーニングが可能なディファレンシャル・差別化器から構成される。
差分判別器は、背景画像から幾何学的変換を学習し、合成された3次元モデルをリアルなポーズとビューで背景画像と整合させることができる。
テクスチャ生成装置は、推定ビューの下で3次元モデルの正確なオブジェクトテクスチャを生成するための新しいビュー符号化機構を採用する。
2つの合成タスク(KITTIによる自動車合成とCityscapesによる歩行者合成)に対する広範囲な実験により、VA-GANは最先端生成手法と比較して質的かつ定量的に高忠実な合成を実現することが示された。
関連論文リスト
- Enhancing Single Image to 3D Generation using Gaussian Splatting and Hybrid Diffusion Priors [17.544733016978928]
単一の画像から3Dオブジェクトを生成するには、野生で撮影された未ポーズのRGB画像から、目に見えない景色の完全な3D形状とテクスチャを推定する必要がある。
3次元オブジェクト生成の最近の進歩は、物体の形状とテクスチャを再構築する技術を導入している。
本稿では, この限界に対応するために, 2次元拡散モデルと3次元拡散モデルとのギャップを埋めることを提案する。
論文 参考訳(メタデータ) (2024-10-12T10:14:11Z) - VCD-Texture: Variance Alignment based 3D-2D Co-Denoising for Text-Guided Texturing [22.39760469467524]
本研究では,2次元拡散モデルと3次元拡散モデルの間のモーダルギャップに対処する分散テクスチャ合成を提案する。
我々は、競合する領域との詳細な関係を改善するために、塗装モジュールを提示する。
論文 参考訳(メタデータ) (2024-07-05T12:11:33Z) - Guide3D: Create 3D Avatars from Text and Image Guidance [55.71306021041785]
Guide3Dは拡散モデルに基づく3Dアバター生成のためのテキスト・画像誘導生成モデルである。
我々のフレームワークは、トポロジカルかつ構造的に正しい幾何と高分解能なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-18T17:55:47Z) - CC3D: Layout-Conditioned Generation of Compositional 3D Scenes [49.281006972028194]
本稿では,複雑な3次元シーンを2次元セマンティックなシーンレイアウトで合成する条件生成モデルであるCC3Dを紹介する。
合成3D-FRONTと実世界のKITTI-360データセットに対する評価は、我々のモデルが視覚的および幾何学的品質を改善したシーンを生成することを示す。
論文 参考訳(メタデータ) (2023-03-21T17:59:02Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - GAN2X: Non-Lambertian Inverse Rendering of Image GANs [85.76426471872855]
GAN2Xは、教師なし画像のみをトレーニングに使用する、教師なし逆レンダリングの新しい手法である。
3次元形状を主眼とする従来のShape-from-GANアプローチとは異なり、GANが生成した擬似ペアデータを利用して、非ランベルト材料特性を復元する試みは初めてである。
実験により, GAN2Xは2次元画像を3次元形状, アルベド, 特異な特性に正確に分解し, 教師なしの単視3次元顔再構成の最先端性能を実現することができた。
論文 参考訳(メタデータ) (2022-06-18T16:58:49Z) - Efficient Geometry-aware 3D Generative Adversarial Networks [50.68436093869381]
既存の3D GANは計算集約的であるか、3D一貫性のない近似を行う。
本研究では、3D GANの計算効率と画質をこれらの近似に頼らずに改善する。
本稿では,高解像度のマルチビュー一貫性画像だけでなく,高品質な3次元形状をリアルタイムに合成する,表現型ハイブリッド・明示型ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-15T08:01:43Z) - Convolutional Generation of Textured 3D Meshes [34.20939983046376]
単視点自然画像からの2次元監視のみを用いて,三角形メッシュとそれに伴う高分解能テクスチャマップを生成できるフレームワークを提案する。
我々の研究の重要な貢献は、メッシュとテクスチャを2D表現として符号化することであり、意味的に整合し、2D畳み込みGANで容易にモデル化できる。
本研究では,Pascal3D+カーとCUBにおいて,モデルがクラスラベル,属性,テキストに条件付けされている場合とで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-13T15:23:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。