論文の概要: Seed3D 1.0: From Images to High-Fidelity Simulation-Ready 3D Assets
- arxiv url: http://arxiv.org/abs/2510.19944v1
- Date: Wed, 22 Oct 2025 18:16:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.243307
- Title: Seed3D 1.0: From Images to High-Fidelity Simulation-Ready 3D Assets
- Title(参考訳): Seed3D 1.0:画像から高忠実度シミュレーション対応の3Dアセット
- Authors: Jiashi Feng, Xiu Li, Jing Lin, Jiahang Liu, Gaohong Liu, Weiqiang Lou, Su Ma, Guang Shi, Qinlong Wang, Jun Wang, Zhongcong Xu, Xuanyu Yi, Zihao Yu, Jianfeng Zhang, Yifan Zhu, Rui Chen, Jinxin Chi, Zixian Du, Li Han, Lixin Huang, Kaihua Jiang, Yuhan Li, Guan Luo, Shuguang Wang, Qianyi Wu, Fan Yang, Junyang Zhang, Xuanmeng Zhang,
- Abstract要約: シミュレーション可能な3Dアセットを単一画像から生成する基礎モデルであるSeed3D 1.0を提案する。
既存の3D生成モデルとは異なり、我々のシステムは正確な幾何学、よく整合したテクスチャ、リアルな物理的基盤を持つ資産を生産する。
- 参考スコア(独自算出の注目度): 63.67760219308476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Developing embodied AI agents requires scalable training environments that balance content diversity with physics accuracy. World simulators provide such environments but face distinct limitations: video-based methods generate diverse content but lack real-time physics feedback for interactive learning, while physics-based engines provide accurate dynamics but face scalability limitations from costly manual asset creation. We present Seed3D 1.0, a foundation model that generates simulation-ready 3D assets from single images, addressing the scalability challenge while maintaining physics rigor. Unlike existing 3D generation models, our system produces assets with accurate geometry, well-aligned textures, and realistic physically-based materials. These assets can be directly integrated into physics engines with minimal configuration, enabling deployment in robotic manipulation and simulation training. Beyond individual objects, the system scales to complete scene generation through assembling objects into coherent environments. By enabling scalable simulation-ready content creation, Seed3D 1.0 provides a foundation for advancing physics-based world simulators. Seed3D 1.0 is now available on https://console.volcengine.com/ark/region:ark+cn-beijing/experience/vision?modelId=doubao-seed3d-1-0-250928&tab=Gen3D
- Abstract(参考訳): 具体的AIエージェントの開発には、コンテンツの多様性と物理精度のバランスをとるスケーラブルなトレーニング環境が必要である。
ビデオベースの手法は多様なコンテンツを生成するが、インタラクティブな学習のためのリアルタイム物理フィードバックは欠如している。
本稿では,単一画像からシミュレーション可能な3Dアセットを生成する基盤モデルSeed3D 1.0を提案する。
既存の3D生成モデルとは異なり、我々のシステムは正確な幾何学、よく整合したテクスチャ、リアルな物理的基盤を持つ資産を生産する。
これらの資産は、最小構成で物理エンジンに直接統合することができ、ロボット操作とシミュレーショントレーニングへの展開を可能にする。
個々のオブジェクトを超えて、システムはオブジェクトをコヒーレントな環境に組み立てることでシーン生成を完了させる。
スケーラブルなシミュレーション可能なコンテンツ作成を可能にすることで、Seed3D 1.0は物理ベースの世界シミュレータを進化させる基盤を提供する。
Seed3D 1.0がhttps://console.volcengine.com/ark/rea:ark+cn-beijing/experience/visionで利用可能になった。
modelId=doubao-seed3d-1-0-250928&tab=Gen3D
関連論文リスト
- PAT3D: Physics-Augmented Text-to-3D Scene Generation [47.18949891825537]
PAT3Dは3Dオブジェクトを生成し、それらの空間的関係を推測し、それらを階層的なシーンツリーに整理する。
微分可能な剛体シミュレータは、重力下での現実的な物体の相互作用を保証する。
実験により、PAT3Dは、物理的妥当性、意味的一貫性、視覚的品質において、従来のアプローチよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2025-11-26T23:23:58Z) - PhysX-Anything: Simulation-Ready Physical 3D Assets from Single Image [67.76547268461411]
PhysX-Anythingは最初のシミュレーション可能な物理3D生成フレームワークである。
高品質なsim-ready 3Dアセットを明示的な幾何学、調音、物理的特性で生成する。
トークンの数を193倍に減らし、標準VLMトークン予算内で明示的な幾何学的学習を可能にする。
論文 参考訳(メタデータ) (2025-11-17T17:59:53Z) - PhysX-3D: Physical-Grounded 3D Asset Generation [48.78065667043986]
既存の3D生成は、物理グラウンドモデリングを無視しながら、ジオメトリーとテクスチャに重点を置いている。
PhysXNet - 5つの基本次元に体系的にアノテートされた最初の物理地上3Dデータセット。
また,物理基底画像から3次元のアセット生成のためのフィードフォワードフレームワークである textbfPhysXGen も提案する。
論文 参考訳(メタデータ) (2025-07-16T17:59:35Z) - EmbodiedGen: Towards a Generative 3D World Engine for Embodied Intelligence [8.987157387248317]
EmbodiedGenはインタラクティブな3Dワールドジェネレーションのための基盤となるプラットフォームだ。
高品質で、制御可能で、フォトリアリスティックな3Dアセットを低コストでスケーラブルに生成することができる。
論文 参考訳(メタデータ) (2025-06-12T11:43:50Z) - R3D2: Realistic 3D Asset Insertion via Diffusion for Autonomous Driving Simulation [78.26308457952636]
本稿では,自律運転シミュレーションの限界を克服する軽量な1ステップ拡散モデルであるR3D2を紹介する。
シャドウや一貫した照明など、妥当なレンダリング効果を生み出すことで、既存のシーンに完全な3Dアセットを現実的に挿入することができる。
R3D2は挿入されたアセットの現実性を大幅に向上させ,テキストから3Dへのアセット挿入やクロスシーン/データセットオブジェクト転送といったユースケースを可能にした。
論文 参考訳(メタデータ) (2025-06-09T14:50:19Z) - PhysGen3D: Crafting a Miniature Interactive World from a Single Image [31.41059199853702]
PhysGen3Dは、単一の画像をアモーダルでカメラ中心のインタラクティブな3Dシーンに変換する新しいフレームワークだ。
中心となるPhysGen3Dは、物体の3D形状、ポーズ、物理的および照明特性を推定する。
我々はPhysGen3Dの性能を、Pika、Kling、Gen-3など、クローズド・ソース・オブ・ザ・アート(SOTA)画像・ビデオモデルと比較した。
論文 参考訳(メタデータ) (2025-03-26T17:31:04Z) - DreamPhysics: Learning Physics-Based 3D Dynamics with Video Diffusion Priors [75.83647027123119]
本稿では,映像拡散前の物体の物理的特性を学習することを提案する。
次に,物理に基づくMaterial-Point-Methodシミュレータを用いて,現実的な動きを伴う4Dコンテンツを生成する。
論文 参考訳(メタデータ) (2024-06-03T16:05:25Z) - Atlas3D: Physically Constrained Self-Supporting Text-to-3D for Simulation and Fabrication [50.541882834405946]
我々は,テキストから3Dへの自動的実装であるAtlas3Dを紹介する。
提案手法は,新しい微分可能シミュレーションに基づく損失関数と,物理的にインスパイアされた正規化を組み合わせたものである。
我々は、Atlas3Dの有効性を広範囲な生成タスクを通して検証し、シミュレーションと実環境の両方で結果の3Dモデルを検証する。
論文 参考訳(メタデータ) (2024-05-28T18:33:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。