論文の概要: Text-to-3D Shape Generation
- arxiv url: http://arxiv.org/abs/2403.13289v1
- Date: Wed, 20 Mar 2024 04:03:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 18:07:57.639919
- Title: Text-to-3D Shape Generation
- Title(参考訳): テキスト・ツー・3次元形状生成
- Authors: Han-Hung Lee, Manolis Savva, Angel X. Chang,
- Abstract要約: テキストから3Dの形状生成が可能な計算システムは、一般的な想像力を魅了している。
本稿では,背景文献を要約するテキスト・ツー・3次元形状生成を可能にする基礎技術と手法について調査する。
そこで本研究では,テキスト・ツー・3次元形状生成に関する最近の研究の体系的分類を,必要な監視データの種類に基づいて導出した。
- 参考スコア(独自算出の注目度): 18.76771062964711
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have seen an explosion of work and interest in text-to-3D shape generation. Much of the progress is driven by advances in 3D representations, large-scale pretraining and representation learning for text and image data enabling generative AI models, and differentiable rendering. Computational systems that can perform text-to-3D shape generation have captivated the popular imagination as they enable non-expert users to easily create 3D content directly from text. However, there are still many limitations and challenges remaining in this problem space. In this state-of-the-art report, we provide a survey of the underlying technology and methods enabling text-to-3D shape generation to summarize the background literature. We then derive a systematic categorization of recent work on text-to-3D shape generation based on the type of supervision data required. Finally, we discuss limitations of the existing categories of methods, and delineate promising directions for future work.
- Abstract(参考訳): 近年、テキストから3Dの形状生成への関心が高まっている。
進歩の大部分は、3D表現の進歩、生成AIモデルを可能にするテキストと画像データに対する大規模な事前学習と表現学習、および差別化可能なレンダリングによって引き起こされる。
テキストから3Dの形状生成が可能な計算システムは,非専門家のユーザがテキストから直接3Dコンテンツを簡単に作成できるという,一般的な想像力を生み出している。
しかし、この問題領域にはまだ多くの制限と課題が残っている。
本報告では,テキスト・ツー・3次元形状生成による背景文献の要約を可能にする基礎技術と手法について述べる。
そこで本研究では,テキスト・ツー・3次元形状生成に関する最近の研究の体系的分類を,必要な監視データの種類に基づいて導出した。
最後に,既存のメソッドのカテゴリの制限について論じ,将来的な作業の方向性を明記する。
関連論文リスト
- A Survey On Text-to-3D Contents Generation In The Wild [5.875257756382124]
3Dコンテンツ作成は、ゲーム、ロボットシミュレーション、仮想現実など、さまざまなアプリケーションにおいて重要な役割を果たす。
この課題に対処するために、テキストから3D生成技術が、3D生成を自動化するための有望なソリューションとして登場した。
論文 参考訳(メタデータ) (2024-05-15T15:23:22Z) - A Comprehensive Survey on 3D Content Generation [148.434661725242]
3Dコンテンツ生成は学術的価値と実践的価値の両方を示している。
新しい分類法が提案され,既存のアプローチを3Dネイティブ生成法,2D先行3D生成法,ハイブリッド3D生成法という3つのタイプに分類する。
論文 参考訳(メタデータ) (2024-02-02T06:20:44Z) - Advances in 3D Generation: A Survey [54.95024616672868]
3Dコンテンツ生成の分野は急速に発展しており、高品質で多様な3Dモデルの作成を可能にしている。
具体的には,3次元生成のバックボーンとして機能する3D表現を紹介する。
本稿では,アルゴリズムのパラダイムのタイプによって分類された,生成手法に関する急成長する文献の概要について概説する。
論文 参考訳(メタデータ) (2024-01-31T13:06:48Z) - VolumeDiffusion: Flexible Text-to-3D Generation with Efficient Volumetric Encoder [56.59814904526965]
本稿では,テキストから3D生成のための先駆的な3Dエンコーダを提案する。
マルチビュー画像から特徴ボリュームを効率よく取得する軽量ネットワークを開発した。
3Dボリュームは、3D U-Netを使用してテキストから3D生成のための拡散モデルに基づいて訓練される。
論文 参考訳(メタデータ) (2023-12-18T18:59:05Z) - ET3D: Efficient Text-to-3D Generation via Multi-View Distillation [11.520777124553195]
本稿では,消費者グラフィックカード上のテキストプロンプトから3Dアセットを生成するのに8ドル程度しか必要としない,効率的なテキスト・ツー・3D生成手法を提案する。
提案手法は3次元学習データを必要としないため,事前学習した画像拡散モデルを蒸留することにより,効率的なテキスト・ツー・3次元生成のための代替手法を提供する。
論文 参考訳(メタデータ) (2023-11-27T06:14:23Z) - Towards High-Fidelity Text-Guided 3D Face Generation and Manipulation
Using only Images [105.92311979305065]
TG-3DFaceは、よりリアルで美的な3D顔を生成し、ラテント3Dよりも9%のマルチビュー一貫性(MVIC)を高めている。
TG-3DFaceによって生成された描画顔画像は、テキストから2Dの顔/画像生成モデルよりも高いFIDとCLIPスコアを達成する。
論文 参考訳(メタデータ) (2023-08-31T14:26:33Z) - T2TD: Text-3D Generation Model based on Prior Knowledge Guidance [74.32278935880018]
本稿では,3次元生成モデルの性能向上のための先行知識として,関連した形状やテキスト情報を導入した新しいテキスト3D生成モデル(T2TD)を提案する。
提案手法は,3次元モデル生成精度を大幅に向上し,text2shapeデータセット上でSOTA法よりも優れる。
論文 参考訳(メタデータ) (2023-05-25T06:05:52Z) - Generative AI meets 3D: A Survey on Text-to-3D in AIGC Era [36.66506237523448]
近年、ジェネレーティブAIは大きな進歩を遂げており、テキスト誘導コンテンツ生成が最も実用的になっている。
ニューラルレイディアンス・フィールド(NeRF)のようなテキスト・ツー・イメージ技術や3Dモデリング技術の進歩により、テキスト・トゥ・3Dは生まれながら非常に活発な研究分野として現れてきた。
論文 参考訳(メタデータ) (2023-05-10T13:26:08Z) - Towards Implicit Text-Guided 3D Shape Generation [81.22491096132507]
本研究は,テキストから3次元形状を生成するという課題について考察する。
テキスト記述にマッチする色で高忠実な形状を生成できるテキスト誘導型3次元形状生成のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-28T10:20:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。