論文の概要: GIRAFFE HD: A High-Resolution 3D-aware Generative Model
- arxiv url: http://arxiv.org/abs/2203.14954v1
- Date: Mon, 28 Mar 2022 17:58:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 12:40:33.960724
- Title: GIRAFFE HD: A High-Resolution 3D-aware Generative Model
- Title(参考訳): GIRAFFE HD:高分解能3D認識生成モデル
- Authors: Yang Xue, Yuheng Li, Krishna Kumar Singh, Yong Jae Lee
- Abstract要約: 3D認識生成モデルにより、3D情報の導入により、より制御可能な画像生成が可能であることが示されている。
GIRAFFE HDは、高解像度画像を生成しながら、GIRAFFEの制御可能な全ての特徴を継承する高解像度3D認識生成モデルである。
複数の自然画像データセット上で、最先端の3D制御可能な高解像度画像生成を実証する。
- 参考スコア(独自算出の注目度): 36.19945281515252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D-aware generative models have shown that the introduction of 3D information
can lead to more controllable image generation. In particular, the current
state-of-the-art model GIRAFFE can control each object's rotation, translation,
scale, and scene camera pose without corresponding supervision. However,
GIRAFFE only operates well when the image resolution is low. We propose GIRAFFE
HD, a high-resolution 3D-aware generative model that inherits all of GIRAFFE's
controllable features while generating high-quality, high-resolution images
($512^2$ resolution and above). The key idea is to leverage a style-based
neural renderer, and to independently generate the foreground and background to
force their disentanglement while imposing consistency constraints to stitch
them together to composite a coherent final image. We demonstrate
state-of-the-art 3D controllable high-resolution image generation on multiple
natural image datasets.
- Abstract(参考訳): 3D認識生成モデルにより、3D情報の導入により、より制御可能な画像生成が可能であることが示されている。
特に、現在の最先端モデルであるGIRAFFEは、対応する監督なしに、各オブジェクトの回転、翻訳、スケール、シーンカメラのポーズを制御することができる。
しかし、GIRAFFEは画像解像度が低い場合にのみ正常に動作する。
GIRAFFE HDは、GIRAFFEの制御可能な機能をすべて継承し、高品質で高解像度な画像(512^2ドル以上)を生成する高解像度3D認識生成モデルである。
キーとなるアイデアは、スタイルベースのニューラルレンダラを活用することで、前景と背景を独立に生成して、一貫性の制約を課しながら、それらを縫い合わせることでコヒーレントな最終的なイメージを合成する。
複数の自然画像データセット上で最先端の3d制御可能な高解像度画像生成を示す。
関連論文リスト
- Hi3D: Pursuing High-Resolution Image-to-3D Generation with Video Diffusion Models [112.2625368640425]
High- resolution Image-to-3D model (Hi3D) はビデオ拡散に基づく新しいパラダイムであり、単一の画像を3D対応シーケンシャル画像生成としてマルチビュー画像に再定義する。
Hi3Dは事前に学習した映像拡散モデルを3D対応で強化し、低解像度のテクスチャディテールを持つマルチビュー画像を生成する。
論文 参考訳(メタデータ) (2024-09-11T17:58:57Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - HoloFusion: Towards Photo-realistic 3D Generative Modeling [77.03830223281787]
拡散に基づく画像生成装置は、高品質で多様なサンプルを作成できるようになったが、その成功はまだ3D生成に完全に変換されていない。
提案するHoloFusionは,高忠実度,高可塑性,多種多様な3Dサンプルを作成するために,これらのアプローチを最大限に組み合わせた手法である。
論文 参考訳(メタデータ) (2023-08-28T01:19:33Z) - CGOF++: Controllable 3D Face Synthesis with Conditional Generative
Occupancy Fields [52.14985242487535]
生成した顔画像の3次元制御性を実現する条件付き3次元顔合成フレームワークを提案する。
中心となるのは条件付き生成操作場(cGOF++)であり、それによって生成された顔の形状が与えられた3Dモルファブルモデル(3DMM)メッシュに適合するように効果的に強制される。
提案手法の有効性を検証し, 最先端の2次元顔合成法よりも高精度な3次元制御性を示す実験を行った。
論文 参考訳(メタデータ) (2022-11-23T19:02:50Z) - StyleSDF: High-Resolution 3D-Consistent Image and Geometry Generation [34.01352591390208]
本稿では,高分解能3次元画像と形状生成技術を導入し,StyleSDFと呼ぶ。
本手法は, 単視点RGBデータのみをトレーニングし, 画像生成のためのStyleGAN2の肩の上に立つ。
論文 参考訳(メタデータ) (2021-12-21T18:45:45Z) - StyleNeRF: A Style-based 3D-Aware Generator for High-resolution Image
Synthesis [92.25145204543904]
StyleNeRFは高解像度画像合成のための3次元認識型生成モデルである。
ニューラル放射場(NeRF)をスタイルベースジェネレータに統合する。
高品質な3D一貫性を維持しながら、対話的な速度で高解像度画像を合成することができる。
論文 参考訳(メタデータ) (2021-10-18T02:37:01Z) - Towards Realistic 3D Embedding via View Alignment [53.89445873577063]
本稿では,3次元モデルを2次元背景画像に現実的に,かつ自動的に埋め込み,新たな画像を構成する,革新的なビューアライメントGAN(VA-GAN)を提案する。
VA-GANはテクスチャジェネレータとディファレンシャルディスクリミネーターで構成され、相互接続され、エンドツーエンドのトレーニングが可能である。
論文 参考訳(メタデータ) (2020-07-14T14:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。