論文の概要: A Survey On Text-to-3D Contents Generation In The Wild
- arxiv url: http://arxiv.org/abs/2405.09431v1
- Date: Wed, 15 May 2024 15:23:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-16 13:06:44.700929
- Title: A Survey On Text-to-3D Contents Generation In The Wild
- Title(参考訳): 野生におけるテキストから3Dコンテンツ生成に関する調査
- Authors: Chenhan Jiang,
- Abstract要約: 3Dコンテンツ作成は、ゲーム、ロボットシミュレーション、仮想現実など、さまざまなアプリケーションにおいて重要な役割を果たす。
この課題に対処するために、テキストから3D生成技術が、3D生成を自動化するための有望なソリューションとして登場した。
- 参考スコア(独自算出の注目度): 5.875257756382124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D content creation plays a vital role in various applications, such as gaming, robotics simulation, and virtual reality. However, the process is labor-intensive and time-consuming, requiring skilled designers to invest considerable effort in creating a single 3D asset. To address this challenge, text-to-3D generation technologies have emerged as a promising solution for automating 3D creation. Leveraging the success of large vision language models, these techniques aim to generate 3D content based on textual descriptions. Despite recent advancements in this area, existing solutions still face significant limitations in terms of generation quality and efficiency. In this survey, we conduct an in-depth investigation of the latest text-to-3D creation methods. We provide a comprehensive background on text-to-3D creation, including discussions on datasets employed in training and evaluation metrics used to assess the quality of generated 3D models. Then, we delve into the various 3D representations that serve as the foundation for the 3D generation process. Furthermore, we present a thorough comparison of the rapidly growing literature on generative pipelines, categorizing them into feedforward generators, optimization-based generation, and view reconstruction approaches. By examining the strengths and weaknesses of these methods, we aim to shed light on their respective capabilities and limitations. Lastly, we point out several promising avenues for future research. With this survey, we hope to inspire researchers further to explore the potential of open-vocabulary text-conditioned 3D content creation.
- Abstract(参考訳): 3Dコンテンツ作成は、ゲーム、ロボットシミュレーション、仮想現実など、さまざまなアプリケーションにおいて重要な役割を果たす。
しかし、このプロセスは労働集約的で時間を要するため、熟練したデザイナーは単一の3Dアセットを作るのにかなりの労力を費やす必要がある。
この課題に対処するために、テキストから3D生成技術が、3D生成を自動化するための有望なソリューションとして登場した。
これらの手法は,大規模視覚言語モデルの成功を生かして,テキスト記述に基づく3Dコンテンツの生成を目指している。
この領域の最近の進歩にもかかわらず、既存のソリューションは生成の質と効率の面で大きな制限に直面している。
本研究では,最新のテキスト・ツー・3D作成手法について詳細な調査を行う。
我々は、テキストから3Dへの作成に関する総合的な背景を提供し、トレーニングに使用されるデータセットと、生成された3Dモデルの品質を評価するために使用される評価指標について議論する。
そして、3D生成プロセスの基礎となる様々な3D表現を掘り下げる。
さらに, 生成パイプラインに関する文献を網羅的に比較し, フィードフォワードジェネレータ, 最適化ベースジェネレータ, ビュー再構成アプローチに分類する。
これらの手法の長所と短所を調べることで、それぞれの能力と限界を光を当てることを目指している。
最後に,今後の研究に期待できる道がいくつかあることを指摘する。
この調査により、オープンな語彙による3Dコンテンツ作成の可能性を探るため、研究者にさらなる刺激を与えたいと思っています。
関連論文リスト
- Text-to-3D Shape Generation [18.76771062964711]
テキストから3Dの形状生成が可能な計算システムは、一般的な想像力を魅了している。
本稿では,背景文献を要約するテキスト・ツー・3次元形状生成を可能にする基礎技術と手法について調査する。
そこで本研究では,テキスト・ツー・3次元形状生成に関する最近の研究の体系的分類を,必要な監視データの種類に基づいて導出した。
論文 参考訳(メタデータ) (2024-03-20T04:03:44Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - A Comprehensive Survey on 3D Content Generation [148.434661725242]
3Dコンテンツ生成は学術的価値と実践的価値の両方を示している。
新しい分類法が提案され,既存のアプローチを3Dネイティブ生成法,2D先行3D生成法,ハイブリッド3D生成法という3つのタイプに分類する。
論文 参考訳(メタデータ) (2024-02-02T06:20:44Z) - Advances in 3D Generation: A Survey [54.95024616672868]
3Dコンテンツ生成の分野は急速に発展しており、高品質で多様な3Dモデルの作成を可能にしている。
具体的には,3次元生成のバックボーンとして機能する3D表現を紹介する。
本稿では,アルゴリズムのパラダイムのタイプによって分類された,生成手法に関する急成長する文献の概要について概説する。
論文 参考訳(メタデータ) (2024-01-31T13:06:48Z) - Progress and Prospects in 3D Generative AI: A Technical Overview
including 3D human [51.58094069317723]
本稿は,2023年後半に主に刊行された関連論文の概要と概要を概説することを目的とする。
最初は、AIが生成したオブジェクトモデルを3Dで議論し、続いて生成された3Dの人間モデル、そして最後に生成された3Dの人間の動きを、決定的な要約と未来へのビジョンで結論付ける。
論文 参考訳(メタデータ) (2024-01-05T03:41:38Z) - VolumeDiffusion: Flexible Text-to-3D Generation with Efficient Volumetric Encoder [56.59814904526965]
本稿では,テキストから3D生成のための先駆的な3Dエンコーダを提案する。
マルチビュー画像から特徴ボリュームを効率よく取得する軽量ネットワークを開発した。
3Dボリュームは、3D U-Netを使用してテキストから3D生成のための拡散モデルに基づいて訓練される。
論文 参考訳(メタデータ) (2023-12-18T18:59:05Z) - T$^3$Bench: Benchmarking Current Progress in Text-to-3D Generation [52.029698642883226]
テキストから3Dへの手法は、強力な事前学習拡散モデルを利用してNeRFを最適化する。
ほとんどの研究は、主観的なケーススタディとユーザ実験で結果を評価している。
最初の総合的なテキスト・ツー・3DベンチマークであるT$3$Benchを紹介する。
論文 参考訳(メタデータ) (2023-10-04T17:12:18Z) - Generative AI meets 3D: A Survey on Text-to-3D in AIGC Era [36.66506237523448]
近年、ジェネレーティブAIは大きな進歩を遂げており、テキスト誘導コンテンツ生成が最も実用的になっている。
ニューラルレイディアンス・フィールド(NeRF)のようなテキスト・ツー・イメージ技術や3Dモデリング技術の進歩により、テキスト・トゥ・3Dは生まれながら非常に活発な研究分野として現れてきた。
論文 参考訳(メタデータ) (2023-05-10T13:26:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。