論文の概要: A Comprehensive Survey on 3D Content Generation
- arxiv url: http://arxiv.org/abs/2402.01166v1
- Date: Fri, 2 Feb 2024 06:20:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 16:37:59.859628
- Title: A Comprehensive Survey on 3D Content Generation
- Title(参考訳): 3次元コンテンツ生成に関する総合調査
- Authors: Jian Liu, Xiaoshui Huang, Tianyu Huang, Lu Chen, Yuenan Hou, Shixiang
Tang, Ziwei Liu, Wanli Ouyang, Wangmeng Zuo, Junjun Jiang, Xianming Liu
- Abstract要約: 3Dコンテンツ生成は学術的価値と実践的価値の両方を示している。
新しい分類法が提案され,既存のアプローチを3Dネイティブ生成法,2D先行3D生成法,ハイブリッド3D生成法という3つのタイプに分類する。
- 参考スコア(独自算出の注目度): 152.8525457524047
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Recent years have witnessed remarkable advances in artificial intelligence
generated content(AIGC), with diverse input modalities, e.g., text, image,
video, audio and 3D. The 3D is the most close visual modality to real-world 3D
environment and carries enormous knowledge. The 3D content generation shows
both academic and practical values while also presenting formidable technical
challenges. This review aims to consolidate developments within the burgeoning
domain of 3D content generation. Specifically, a new taxonomy is proposed that
categorizes existing approaches into three types: 3D native generative methods,
2D prior-based 3D generative methods, and hybrid 3D generative methods. The
survey covers approximately 60 papers spanning the major techniques. Besides,
we discuss limitations of current 3D content generation techniques, and point
out open challenges as well as promising directions for future work.
Accompanied with this survey, we have established a project website where the
resources on 3D content generation research are provided. The project page is
available at https://github.com/hitcslj/Awesome-AIGC-3D.
- Abstract(参考訳): 近年、人工知能生成コンテンツ(AIGC)の顕著な進歩が見られ、テキスト、画像、ビデオ、オーディオ、3Dなどの様々な入力モダリティがある。
3Dは現実世界の3D環境に最も近い視覚的モダリティであり、膨大な知識を持っている。
3Dコンテンツ生成は、学術的価値と実践的価値の両方を示しながら、重大な技術的課題も提示する。
本レビューは,3Dコンテンツ生成の急成長する領域内での開発を統合することを目的としている。
具体的には,既存のアプローチを3Dネイティブ生成法,2D先行3D生成法,ハイブリッド3D生成法という3つのタイプに分類する新たな分類法を提案する。
調査は主要な技術にまたがる約60の論文をカバーしている。
さらに,現在の3Dコンテンツ生成技術の限界についても論じ,オープンな課題と将来的な方向性を指摘する。
本調査と合わせて,3次元コンテンツ生成研究のリソースを提供するプロジェクトウェブサイトを開設した。
プロジェクトページはhttps://github.com/hitcslj/awesome-aigc-3dで入手できる。
関連論文リスト
- A Survey on Text-guided 3D Visual Grounding: Elements, Recent Advances, and Future Directions [27.469346807311574]
テキスト誘導型3D視覚接地(T-3DVG)は、複雑な3Dシーンからの言語クエリに対応する特定のオブジェクトを見つけることを目的としている。
データ収集と3Dポイント・クラウド・ソース・プロセッシングの複雑さから、2Dビジュアル・グラウンドと比較すると、このタスクは現実世界に近づき、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-06-09T13:52:12Z) - DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - A Survey On Text-to-3D Contents Generation In The Wild [5.875257756382124]
3Dコンテンツ作成は、ゲーム、ロボットシミュレーション、仮想現実など、さまざまなアプリケーションにおいて重要な役割を果たす。
この課題に対処するために、テキストから3D生成技術が、3D生成を自動化するための有望なソリューションとして登場した。
論文 参考訳(メタデータ) (2024-05-15T15:23:22Z) - Text-to-3D Shape Generation [18.76771062964711]
テキストから3Dの形状生成が可能な計算システムは、一般的な想像力を魅了している。
本稿では,背景文献を要約するテキスト・ツー・3次元形状生成を可能にする基礎技術と手法について調査する。
そこで本研究では,テキスト・ツー・3次元形状生成に関する最近の研究の体系的分類を,必要な監視データの種類に基づいて導出した。
論文 参考訳(メタデータ) (2024-03-20T04:03:44Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - Advances in 3D Generation: A Survey [54.95024616672868]
3Dコンテンツ生成の分野は急速に発展しており、高品質で多様な3Dモデルの作成を可能にしている。
具体的には,3次元生成のバックボーンとして機能する3D表現を紹介する。
本稿では,アルゴリズムのパラダイムのタイプによって分類された,生成手法に関する急成長する文献の概要について概説する。
論文 参考訳(メタデータ) (2024-01-31T13:06:48Z) - Sherpa3D: Boosting High-Fidelity Text-to-3D Generation via Coarse 3D
Prior [52.44678180286886]
2次元拡散モデルでは、3次元データなしで優れた一般化と豊富な詳細を実現する蒸留手法が見つかる。
提案するSherpa3Dは,高忠実度,一般化性,幾何整合性を同時に実現する新しいテキスト・ツー・3Dフレームワークである。
論文 参考訳(メタデータ) (2023-12-11T18:59:18Z) - Generative AI meets 3D: A Survey on Text-to-3D in AIGC Era [36.66506237523448]
近年、ジェネレーティブAIは大きな進歩を遂げており、テキスト誘導コンテンツ生成が最も実用的になっている。
ニューラルレイディアンス・フィールド(NeRF)のようなテキスト・ツー・イメージ技術や3Dモデリング技術の進歩により、テキスト・トゥ・3Dは生まれながら非常に活発な研究分野として現れてきた。
論文 参考訳(メタデータ) (2023-05-10T13:26:08Z) - Gait Recognition in the Wild with Dense 3D Representations and A
Benchmark [86.68648536257588]
既存の歩行認識の研究は、制約されたシーンにおける人間の体のシルエットや骨格のような2D表現によって支配されている。
本稿では,野生における歩行認識のための高密度な3次元表現の探索を目的とする。
大規模な3D表現に基づく歩行認識データセットGait3Dを構築した。
論文 参考訳(メタデータ) (2022-04-06T03:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。