論文の概要: 3DGEN: A GAN-based approach for generating novel 3D models from image
data
- arxiv url: http://arxiv.org/abs/2312.08094v1
- Date: Wed, 13 Dec 2023 12:24:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 15:20:15.789016
- Title: 3DGEN: A GAN-based approach for generating novel 3D models from image
data
- Title(参考訳): 3DGEN:画像データから新しい3Dモデルを生成するGANベースのアプローチ
- Authors: Antoine Schnepf, Flavian Vasile and Ugo Tanielian
- Abstract要約: 本稿では,物体再構成のためのニューラル・ラジアンス・フィールドとGANに基づく画像生成のためのモデルである3DGENを提案する。
提案アーキテクチャでは、トレーニング画像と同じカテゴリのオブジェクトに対して可塑性メッシュを生成し、その結果のメッシュと最先端のベースラインを比較することができる。
- 参考スコア(独自算出の注目度): 5.767281919406463
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent advances in text and image synthesis show a great promise for the
future of generative models in creative fields. However, a less explored area
is the one of 3D model generation, with a lot of potential applications to game
design, video production, and physical product design. In our paper, we present
3DGEN, a model that leverages the recent work on both Neural Radiance Fields
for object reconstruction and GAN-based image generation. We show that the
proposed architecture can generate plausible meshes for objects of the same
category as the training images and compare the resulting meshes with the
state-of-the-art baselines, leading to visible uplifts in generation quality.
- Abstract(参考訳): テキストと画像合成の最近の進歩は、創造的分野における生成モデルの将来に大きな期待を示している。
しかし、あまり研究されていない分野は3dモデル生成の分野であり、ゲームデザイン、ビデオ制作、物理製品デザインに多くの応用が考えられる。
本稿では,オブジェクト再構成とganに基づく画像生成の両方において,最近のニューラルラミアンスフィールドを利用したモデルである3dgenを提案する。
提案するアーキテクチャは,トレーニング画像と同じカテゴリのオブジェクトに対して妥当なメッシュを生成し,その結果のメッシュと最先端のベースラインを比較して,生成品質の目に見える向上につながることを示す。
関連論文リスト
- DreamPolish: Domain Score Distillation With Progressive Geometry Generation [66.94803919328815]
本稿では,高精細な幾何学と高品質なテクスチャの創出に優れたテキスト・ツー・3D生成モデルであるDreamPolishを紹介する。
幾何構成フェーズでは, 合成過程の安定性を高めるために, 複数のニューラル表現を利用する。
テクスチャ生成フェーズでは、そのような領域に向けて神経表現を導くために、新しいスコア蒸留、すなわちドメインスコア蒸留(DSD)を導入する。
論文 参考訳(メタデータ) (2024-11-03T15:15:01Z) - Phidias: A Generative Model for Creating 3D Content from Text, Image, and 3D Conditions with Reference-Augmented Diffusion [59.00571588016896]
3Dモデリングでは、デザイナはしばしば既存の3Dモデルを使って新しいものを作成する。
このプラクティスは、参照付加3D生成に拡散を利用する新しい生成モデルであるPhidiasの開発にインスピレーションを与えている。
論文 参考訳(メタデータ) (2024-09-17T17:59:33Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - Advances in 3D Generation: A Survey [54.95024616672868]
3Dコンテンツ生成の分野は急速に発展しており、高品質で多様な3Dモデルの作成を可能にしている。
具体的には,3次元生成のバックボーンとして機能する3D表現を紹介する。
本稿では,アルゴリズムのパラダイムのタイプによって分類された,生成手法に関する急成長する文献の概要について概説する。
論文 参考訳(メタデータ) (2024-01-31T13:06:48Z) - Conditional Generative Modeling for Images, 3D Animations, and Video [4.422441608136163]
コンピュータビジョンのための生成モデリングの分野における革新を推進しようとする論文。
研究は、ノイズと視覚データの変換を提供するアーキテクチャと、生成タスクや3Dコンテンツ操作にエンコーダ・デコーダアーキテクチャを適用することに焦点を当てている。
論文 参考訳(メタデータ) (2023-10-19T21:10:39Z) - RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - Generative Deformable Radiance Fields for Disentangled Image Synthesis
of Topology-Varying Objects [52.46838926521572]
3D認識生成モデルは、モノクロ2D画像の集合から3Dニューラル放射場(NeRF)を生成するスーパーブパフォーマンスを実証した。
本研究では, トポロジー変化物体の放射場を非交絡形状と外観変化で合成する生成モデルを提案する。
論文 参考訳(メタデータ) (2022-09-09T08:44:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。