論文の概要: OrthoPlanes: A Novel Representation for Better 3D-Awareness of GANs
- arxiv url: http://arxiv.org/abs/2309.15830v1
- Date: Wed, 27 Sep 2023 17:52:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 12:22:19.437754
- Title: OrthoPlanes: A Novel Representation for Better 3D-Awareness of GANs
- Title(参考訳): OrthoPlanes: GANの3D認識向上のための新しい表現法
- Authors: Honglin He, Zhuoqian Yang, Shikai Li, Bo Dai, Wayne Wu
- Abstract要約: 本稿では,2次元画像コレクションから微細な幾何学的手法を用いて,現実的かつビュー一貫性のある画像を生成する新しい手法を提案する。
提案手法は,細粒度3D情報を特徴マップにエンコードするtextbfOrthoPlanes と呼ばれる,ハイブリッドな明示的表現を提案する。
- 参考スコア(独自算出の注目度): 34.00559090962427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new method for generating realistic and view-consistent images
with fine geometry from 2D image collections. Our method proposes a hybrid
explicit-implicit representation called \textbf{OrthoPlanes}, which encodes
fine-grained 3D information in feature maps that can be efficiently generated
by modifying 2D StyleGANs. Compared to previous representations, our method has
better scalability and expressiveness with clear and explicit information. As a
result, our method can handle more challenging view-angles and synthesize
articulated objects with high spatial degree of freedom. Experiments
demonstrate that our method achieves state-of-the-art results on FFHQ and SHHQ
datasets, both quantitatively and qualitatively. Project page:
\url{https://orthoplanes.github.io/}.
- Abstract(参考訳): 本稿では,2次元画像コレクションから微細な幾何を用いて,現実的かつビュー一貫性のある画像を生成する新しい手法を提案する。
提案手法では,2次元スタイルGANの修正により効率よく生成可能な特徴マップに,詳細な3D情報を符号化する。
従来の表現と比較すると,明快かつ明快な情報でスケーラビリティと表現性が向上している。
その結果,より困難な視角を処理し,空間的自由度の高い調音物体を合成できることがわかった。
実験により,本手法はFFHQとSHHQのデータセット上で,定量的かつ定性的に,最先端の結果が得られることを示した。
プロジェクトページ: \url{https://orthoplanes.github.io/}
関連論文リスト
- Open-Vocabulary 3D Semantic Segmentation with Text-to-Image Diffusion Models [57.37244894146089]
Diff2Sceneは、テキスト画像生成モデルからの凍結表現と、サルエント・アウェアと幾何学的アウェアマスクを併用して、オープンな3次元セマンティックセマンティックセグメンテーションと視覚的グラウンドニングタスクに活用する。
競争ベースラインを上回り、最先端の手法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-07-18T16:20:56Z) - GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - ViewDiff: 3D-Consistent Image Generation with Text-to-Image Models [65.22994156658918]
実世界のデータから1つの認知過程において多視点画像を生成することを学習する手法を提案する。
我々は、任意の視点でより多くの3D一貫性のある画像をレンダリングする自己回帰生成を設計する。
論文 参考訳(メタデータ) (2024-03-04T07:57:05Z) - Sketch2NeRF: Multi-view Sketch-guided Text-to-3D Generation [37.93542778715304]
スケッチ誘導型テキストから3D生成フレームワーク(Sketch2NeRF)を提案し、3D生成にスケッチ制御を追加する。
本手法は,スケッチの類似性やテキストアライメントの観点から,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-01-25T15:49:12Z) - 3DStyle-Diffusion: Pursuing Fine-grained Text-driven 3D Stylization with
2D Diffusion Models [102.75875255071246]
テキスト駆動型スタイリングによる3Dコンテンツ作成は、マルチメディアとグラフィックコミュニティにとって根本的な課題となっている。
2次元拡散モデルから制御可能な外観と幾何学的ガイダンスを付加した3次元メッシュのきめ細かいスタイリングをトリガーする新しい3DStyle-Diffusionモデルを提案する。
論文 参考訳(メタデータ) (2023-11-09T15:51:27Z) - Guide3D: Create 3D Avatars from Text and Image Guidance [55.71306021041785]
Guide3Dは拡散モデルに基づく3Dアバター生成のためのテキスト・画像誘導生成モデルである。
我々のフレームワークは、トポロジカルかつ構造的に正しい幾何と高分解能なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-18T17:55:47Z) - Magic123: One Image to High-Quality 3D Object Generation Using Both 2D
and 3D Diffusion Priors [104.79392615848109]
Magic123は、高品質でテクスチャ化された3Dメッシュのための、2段階の粗大なアプローチである。
最初の段階では、粗い幾何学を生成するために、神経放射場を最適化する。
第2段階では、視覚的に魅力的なテクスチャを持つ高分解能メッシュを生成するために、メモリ効率のよい微分可能なメッシュ表現を採用する。
論文 参考訳(メタデータ) (2023-06-30T17:59:08Z) - Improved Modeling of 3D Shapes with Multi-view Depth Maps [48.8309897766904]
CNNを用いて3次元形状をモデル化するための汎用フレームワークを提案する。
オブジェクトの1つの深度画像だけで、3Dオブジェクトの高密度な多視点深度マップ表現を出力できる。
論文 参考訳(メタデータ) (2020-09-07T17:58:27Z) - Convolutional Generation of Textured 3D Meshes [34.20939983046376]
単視点自然画像からの2次元監視のみを用いて,三角形メッシュとそれに伴う高分解能テクスチャマップを生成できるフレームワークを提案する。
我々の研究の重要な貢献は、メッシュとテクスチャを2D表現として符号化することであり、意味的に整合し、2D畳み込みGANで容易にモデル化できる。
本研究では,Pascal3D+カーとCUBにおいて,モデルがクラスラベル,属性,テキストに条件付けされている場合とで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-13T15:23:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。