論文の概要: Generative AI meets 3D: A Survey on Text-to-3D in AIGC Era
- arxiv url: http://arxiv.org/abs/2305.06131v3
- Date: Mon, 10 Jun 2024 14:13:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 05:48:34.434277
- Title: Generative AI meets 3D: A Survey on Text-to-3D in AIGC Era
- Title(参考訳): ジェネレーティブAIが3Dに到達 - AIGC時代のテキストから3Dへ
- Authors: Chenghao Li, Chaoning Zhang, Atish Waghwase, Lik-Hang Lee, Francois Rameau, Yang Yang, Sung-Ho Bae, Choong Seon Hong,
- Abstract要約: 生成AI(AIGC、別名AI生成コンテンツ)は近年大きく進歩している。
テキスト・ツー・イメージ・モデリング技術や3Dモデリング技術の進歩により、テキスト・ツー・3Dは生まれながらに非常に活発な研究分野として現れてきた。
- 参考スコア(独自算出の注目度): 38.043884411831044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI (AIGC, a.k.a. AI generated content) has made significant progress in recent years, with text-guided content generation being the most practical as it facilitates interaction between human instructions and AIGC. Due to advancements in text-to-image and 3D modeling technologies (like NeRF), text-to-3D has emerged as a nascent yet highly active research field. Our work conducts the first comprehensive survey and follows up on subsequent research progress in the overall field, aiming to help readers interested in this direction quickly catch up with its rapid development. First, we introduce 3D data representations, including both Euclidean and non-Euclidean data. Building on this foundation, we introduce various foundational technologies and summarize how recent work combines these foundational technologies to achieve satisfactory text-to-3D results. Additionally, we present mainstream baselines and research directions in recent text-to-3D technology, including fidelity, efficiency, consistency, controllability, diversity, and applicability. Furthermore, we summarize the usage of text-to-3D technology in various applications, including avatar generation, texture generation, shape editing, and scene generation.
- Abstract(参考訳): 生成AI(AIGC、別名AI生成コンテンツ)は近年大きく進歩し、人間の指示とAIGCの相互作用を促進するため、テキスト誘導コンテンツ生成が最も実用的になっている。
テキスト・ツー・イメージ技術や3Dモデリング技術(NeRFなど)の進歩により、テキスト・トゥ・3Dは生まれながら非常に活発な研究分野として登場した。
本研究は,本研究の第1回総合的な調査を行い,この方向性に関心のある読者が急速に発展していくのを手伝うことを目的として,今後の研究の進展を追及する。
まず、ユークリッドデータと非ユークリッドデータの両方を含む3次元データ表現を導入する。
この基礎の上に様々な基礎技術を導入し、最近の研究がこれらの基礎技術を組み合わせて満足なテキスト・ツー・3D結果を実現する方法についてまとめる。
さらに,最近のテキスト・ツー・3D技術では,忠実さ,効率性,一貫性,制御性,多様性,適用性など,主流のベースラインと研究方向を提示する。
さらに,アバター生成,テクスチャ生成,形状編集,シーン生成など,各種アプリケーションにおけるテキスト・ツー・3D技術の利用状況を要約する。
関連論文リスト
- A Survey On Text-to-3D Contents Generation In The Wild [5.875257756382124]
3Dコンテンツ作成は、ゲーム、ロボットシミュレーション、仮想現実など、さまざまなアプリケーションにおいて重要な役割を果たす。
この課題に対処するために、テキストから3D生成技術が、3D生成を自動化するための有望なソリューションとして登場した。
論文 参考訳(メタデータ) (2024-05-15T15:23:22Z) - Text-to-3D Shape Generation [18.76771062964711]
テキストから3Dの形状生成が可能な計算システムは、一般的な想像力を魅了している。
本稿では,背景文献を要約するテキスト・ツー・3次元形状生成を可能にする基礎技術と手法について調査する。
そこで本研究では,テキスト・ツー・3次元形状生成に関する最近の研究の体系的分類を,必要な監視データの種類に基づいて導出した。
論文 参考訳(メタデータ) (2024-03-20T04:03:44Z) - A Comprehensive Survey of 3D Dense Captioning: Localizing and Describing
Objects in 3D Scenes [80.20670062509723]
3Dシークエンスキャプションは、3Dシーンの詳細な説明を作成することを目的とした、視覚言語によるブリッジングタスクである。
2次元の視覚的キャプションと比較して、現実世界の表現が密接なため、大きな可能性と課題が提示される。
既存手法の人気と成功にもかかわらず、この分野の進歩を要約した総合的な調査は乏しい。
論文 参考訳(メタデータ) (2024-03-12T10:04:08Z) - A Comprehensive Survey on 3D Content Generation [148.434661725242]
3Dコンテンツ生成は学術的価値と実践的価値の両方を示している。
新しい分類法が提案され,既存のアプローチを3Dネイティブ生成法,2D先行3D生成法,ハイブリッド3D生成法という3つのタイプに分類する。
論文 参考訳(メタデータ) (2024-02-02T06:20:44Z) - Advances in 3D Generation: A Survey [54.95024616672868]
3Dコンテンツ生成の分野は急速に発展しており、高品質で多様な3Dモデルの作成を可能にしている。
具体的には,3次元生成のバックボーンとして機能する3D表現を紹介する。
本稿では,アルゴリズムのパラダイムのタイプによって分類された,生成手法に関する急成長する文献の概要について概説する。
論文 参考訳(メタデータ) (2024-01-31T13:06:48Z) - ControlDreamer: Blending Geometry and Style in Text-to-3D [34.92628800597151]
我々は、慎重にキュレートされたテキストコーパスからデータセットに基づいて訓練された、新しい深度対応多視点拡散モデルであるMulti-view ControlNetを紹介する。
マルチビューコントロールネットは、2段階のパイプラインであるControlDreamerに統合され、テキストガイドによるスタイリングされた3Dモデルの生成を可能にします。
論文 参考訳(メタデータ) (2023-12-02T13:04:54Z) - T$^3$Bench: Benchmarking Current Progress in Text-to-3D Generation [52.029698642883226]
テキストから3Dへの手法は、強力な事前学習拡散モデルを利用してNeRFを最適化する。
ほとんどの研究は、主観的なケーススタディとユーザ実験で結果を評価している。
最初の総合的なテキスト・ツー・3DベンチマークであるT$3$Benchを紹介する。
論文 参考訳(メタデータ) (2023-10-04T17:12:18Z) - T2TD: Text-3D Generation Model based on Prior Knowledge Guidance [74.32278935880018]
本稿では,3次元生成モデルの性能向上のための先行知識として,関連した形状やテキスト情報を導入した新しいテキスト3D生成モデル(T2TD)を提案する。
提案手法は,3次元モデル生成精度を大幅に向上し,text2shapeデータセット上でSOTA法よりも優れる。
論文 参考訳(メタデータ) (2023-05-25T06:05:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。