論文の概要: A Comprehensive Survey on 3D Content Generation
- arxiv url: http://arxiv.org/abs/2402.01166v1
- Date: Fri, 2 Feb 2024 06:20:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 16:37:59.859628
- Title: A Comprehensive Survey on 3D Content Generation
- Title(参考訳): 3次元コンテンツ生成に関する総合調査
- Authors: Jian Liu, Xiaoshui Huang, Tianyu Huang, Lu Chen, Yuenan Hou, Shixiang
Tang, Ziwei Liu, Wanli Ouyang, Wangmeng Zuo, Junjun Jiang, Xianming Liu
- Abstract要約: 3Dコンテンツ生成は学術的価値と実践的価値の両方を示している。
新しい分類法が提案され,既存のアプローチを3Dネイティブ生成法,2D先行3D生成法,ハイブリッド3D生成法という3つのタイプに分類する。
- 参考スコア(独自算出の注目度): 152.8525457524047
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Recent years have witnessed remarkable advances in artificial intelligence
generated content(AIGC), with diverse input modalities, e.g., text, image,
video, audio and 3D. The 3D is the most close visual modality to real-world 3D
environment and carries enormous knowledge. The 3D content generation shows
both academic and practical values while also presenting formidable technical
challenges. This review aims to consolidate developments within the burgeoning
domain of 3D content generation. Specifically, a new taxonomy is proposed that
categorizes existing approaches into three types: 3D native generative methods,
2D prior-based 3D generative methods, and hybrid 3D generative methods. The
survey covers approximately 60 papers spanning the major techniques. Besides,
we discuss limitations of current 3D content generation techniques, and point
out open challenges as well as promising directions for future work.
Accompanied with this survey, we have established a project website where the
resources on 3D content generation research are provided. The project page is
available at https://github.com/hitcslj/Awesome-AIGC-3D.
- Abstract(参考訳): 近年、人工知能生成コンテンツ(AIGC)の顕著な進歩が見られ、テキスト、画像、ビデオ、オーディオ、3Dなどの様々な入力モダリティがある。
3Dは現実世界の3D環境に最も近い視覚的モダリティであり、膨大な知識を持っている。
3Dコンテンツ生成は、学術的価値と実践的価値の両方を示しながら、重大な技術的課題も提示する。
本レビューは,3Dコンテンツ生成の急成長する領域内での開発を統合することを目的としている。
具体的には,既存のアプローチを3Dネイティブ生成法,2D先行3D生成法,ハイブリッド3D生成法という3つのタイプに分類する新たな分類法を提案する。
調査は主要な技術にまたがる約60の論文をカバーしている。
さらに,現在の3Dコンテンツ生成技術の限界についても論じ,オープンな課題と将来的な方向性を指摘する。
本調査と合わせて,3次元コンテンツ生成研究のリソースを提供するプロジェクトウェブサイトを開設した。
プロジェクトページはhttps://github.com/hitcslj/awesome-aigc-3dで入手できる。
関連論文リスト
- 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - Advances in 3D Generation: A Survey [54.95024616672868]
3Dコンテンツ生成の分野は急速に発展しており、高品質で多様な3Dモデルの作成を可能にしている。
具体的には,3次元生成のバックボーンとして機能する3D表現を紹介する。
本稿では,アルゴリズムのパラダイムのタイプによって分類された,生成手法に関する急成長する文献の概要について概説する。
論文 参考訳(メタデータ) (2024-01-31T13:06:48Z) - Progress and Prospects in 3D Generative AI: A Technical Overview
including 3D human [51.58094069317723]
本稿は,2023年後半に主に刊行された関連論文の概要と概要を概説することを目的とする。
最初は、AIが生成したオブジェクトモデルを3Dで議論し、続いて生成された3Dの人間モデル、そして最後に生成された3Dの人間の動きを、決定的な要約と未来へのビジョンで結論付ける。
論文 参考訳(メタデータ) (2024-01-05T03:41:38Z) - Sherpa3D: Boosting High-Fidelity Text-to-3D Generation via Coarse 3D
Prior [52.44678180286886]
2次元拡散モデルでは、3次元データなしで優れた一般化と豊富な詳細を実現する蒸留手法が見つかる。
提案するSherpa3Dは,高忠実度,一般化性,幾何整合性を同時に実現する新しいテキスト・ツー・3Dフレームワークである。
論文 参考訳(メタデータ) (2023-12-11T18:59:18Z) - Generative AI meets 3D: A Survey on Text-to-3D in AIGC Era [26.63811050170515]
テキスト・トゥ・3Dの最初の包括的調査を行う。
ユークリッドデータと非ユークリッドデータの両方を含む3次元データ表現を導入する。
本稿では,アバター生成,テクスチャ生成,形状変換,シーン生成など,様々な用途でテキスト・ツー・3D技術がどのように利用されているかを要約する。
論文 参考訳(メタデータ) (2023-05-10T13:26:08Z) - A Survey on Deep Generative 3D-aware Image Synthesis [40.670232067232796]
深部生成3D認識画像合成は3D一貫性のある高輝度画像を生成する。
本研究は,新たな研究者を紹介し,有用な参考資料を提供し,今後の研究方向性を刺激することを目的としている。
論文 参考訳(メタデータ) (2022-10-25T18:45:08Z) - Gait Recognition in the Wild with Dense 3D Representations and A
Benchmark [86.68648536257588]
既存の歩行認識の研究は、制約されたシーンにおける人間の体のシルエットや骨格のような2D表現によって支配されている。
本稿では,野生における歩行認識のための高密度な3次元表現の探索を目的とする。
大規模な3D表現に基づく歩行認識データセットGait3Dを構築した。
論文 参考訳(メタデータ) (2022-04-06T03:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。