論文の概要: Generative AI meets 3D: A Survey on Text-to-3D in AIGC Era
- arxiv url: http://arxiv.org/abs/2305.06131v4
- Date: Fri, 25 Oct 2024 02:30:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-28 13:34:36.060240
- Title: Generative AI meets 3D: A Survey on Text-to-3D in AIGC Era
- Title(参考訳): ジェネレーティブAIが3Dに到達 - AIGC時代のテキストから3Dへ
- Authors: Chenghao Li, Chaoning Zhang, Joseph Cho, Atish Waghwase, Lik-Hang Lee, Francois Rameau, Yang Yang, Sung-Ho Bae, Choong Seon Hong,
- Abstract要約: 近年、ジェネレーティブAIは大きな進歩を遂げており、テキスト誘導コンテンツ生成が最も実用的になっている。
ニューラルレイディアンス・フィールド(NeRF)のようなテキスト・ツー・イメージ技術や3Dモデリング技術の進歩により、テキスト・トゥ・3Dは生まれながら非常に活発な研究分野として現れてきた。
- 参考スコア(独自算出の注目度): 36.66506237523448
- License:
- Abstract: Generative AI has made significant progress in recent years, with text-guided content generation being the most practical as it facilitates interaction between human instructions and AI-generated content (AIGC). Thanks to advancements in text-to-image and 3D modeling technologies, like neural radiance field (NeRF), text-to-3D has emerged as a nascent yet highly active research field. Our work conducts a comprehensive survey on this topic and follows up on subsequent research progress in the overall field, aiming to help readers interested in this direction quickly catch up with its rapid development. First, we introduce 3D data representations, including both Structured and non-Structured data. Building on this pre-requisite, we introduce various core technologies to achieve satisfactory text-to-3D results. Additionally, we present mainstream baselines and research directions in recent text-to-3D technology, including fidelity, efficiency, consistency, controllability, diversity, and applicability. Furthermore, we summarize the usage of text-to-3D technology in various applications, including avatar generation, texture generation, scene generation and 3D editing. Finally, we discuss the agenda for the future development of text-to-3D.
- Abstract(参考訳): ヒューマンインストラクションとAIGC(AIGC)との相互作用を促進するため、テキスト誘導コンテンツ生成が最も実用的である。
ニューラルレイディアンス・フィールド(NeRF)のようなテキスト・ツー・イメージ技術や3Dモデリング技術の進歩により、テキスト・トゥ・3Dは生まれながら非常に活発な研究分野として現れてきた。
本研究は,この話題を総合的に調査し,今後の研究の進展を追及し,この方向性に関心のある読者が急速に発展していくのを手伝うことを目的としている。
まず,構造化データと非構造化データの両方を含む3次元データ表現を導入する。
この前提条件に基づいて, 良好なテキスト・ツー・3D結果を実現するために, 様々なコア技術を導入する。
さらに,最近のテキスト・ツー・3D技術では,忠実さ,効率性,一貫性,制御性,多様性,適用性など,主流のベースラインと研究方向を提示する。
さらに,アバター生成,テクスチャ生成,シーン生成,3D編集など,各種アプリケーションにおけるテキスト・ツー・3D技術の利用状況を要約した。
最後に,テキスト・トゥ・3Dの今後の発展に向けた課題について論じる。
関連論文リスト
- A Survey On Text-to-3D Contents Generation In The Wild [5.875257756382124]
3Dコンテンツ作成は、ゲーム、ロボットシミュレーション、仮想現実など、さまざまなアプリケーションにおいて重要な役割を果たす。
この課題に対処するために、テキストから3D生成技術が、3D生成を自動化するための有望なソリューションとして登場した。
論文 参考訳(メタデータ) (2024-05-15T15:23:22Z) - Text-to-3D Shape Generation [18.76771062964711]
テキストから3Dの形状生成が可能な計算システムは、一般的な想像力を魅了している。
本稿では,背景文献を要約するテキスト・ツー・3次元形状生成を可能にする基礎技術と手法について調査する。
そこで本研究では,テキスト・ツー・3次元形状生成に関する最近の研究の体系的分類を,必要な監視データの種類に基づいて導出した。
論文 参考訳(メタデータ) (2024-03-20T04:03:44Z) - A Comprehensive Survey of 3D Dense Captioning: Localizing and Describing
Objects in 3D Scenes [80.20670062509723]
3Dシークエンスキャプションは、3Dシーンの詳細な説明を作成することを目的とした、視覚言語によるブリッジングタスクである。
2次元の視覚的キャプションと比較して、現実世界の表現が密接なため、大きな可能性と課題が提示される。
既存手法の人気と成功にもかかわらず、この分野の進歩を要約した総合的な調査は乏しい。
論文 参考訳(メタデータ) (2024-03-12T10:04:08Z) - A Comprehensive Survey on 3D Content Generation [148.434661725242]
3Dコンテンツ生成は学術的価値と実践的価値の両方を示している。
新しい分類法が提案され,既存のアプローチを3Dネイティブ生成法,2D先行3D生成法,ハイブリッド3D生成法という3つのタイプに分類する。
論文 参考訳(メタデータ) (2024-02-02T06:20:44Z) - Advances in 3D Generation: A Survey [54.95024616672868]
3Dコンテンツ生成の分野は急速に発展しており、高品質で多様な3Dモデルの作成を可能にしている。
具体的には,3次元生成のバックボーンとして機能する3D表現を紹介する。
本稿では,アルゴリズムのパラダイムのタイプによって分類された,生成手法に関する急成長する文献の概要について概説する。
論文 参考訳(メタデータ) (2024-01-31T13:06:48Z) - ControlDreamer: Blending Geometry and Style in Text-to-3D [34.92628800597151]
我々は、慎重にキュレートされたテキストコーパスからデータセットに基づいて訓練された、新しい深度対応多視点拡散モデルであるMulti-view ControlNetを紹介する。
マルチビューコントロールネットは、2段階のパイプラインであるControlDreamerに統合され、テキストガイドによるスタイリングされた3Dモデルの生成を可能にします。
論文 参考訳(メタデータ) (2023-12-02T13:04:54Z) - T$^3$Bench: Benchmarking Current Progress in Text-to-3D Generation [52.029698642883226]
テキストから3Dへの手法は、強力な事前学習拡散モデルを利用してNeRFを最適化する。
ほとんどの研究は、主観的なケーススタディとユーザ実験で結果を評価している。
最初の総合的なテキスト・ツー・3DベンチマークであるT$3$Benchを紹介する。
論文 参考訳(メタデータ) (2023-10-04T17:12:18Z) - T2TD: Text-3D Generation Model based on Prior Knowledge Guidance [74.32278935880018]
本稿では,3次元生成モデルの性能向上のための先行知識として,関連した形状やテキスト情報を導入した新しいテキスト3D生成モデル(T2TD)を提案する。
提案手法は,3次元モデル生成精度を大幅に向上し,text2shapeデータセット上でSOTA法よりも優れる。
論文 参考訳(メタデータ) (2023-05-25T06:05:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。