論文の概要: Flash Sculptor: Modular 3D Worlds from Objects
- arxiv url: http://arxiv.org/abs/2504.06178v1
- Date: Tue, 08 Apr 2025 16:20:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:29:33.142924
- Title: Flash Sculptor: Modular 3D Worlds from Objects
- Title(参考訳): Flash Sculptor: Modular 3D Worlds from Objects
- Authors: Yujia Hu, Songhua Liu, Xingyi Yang, Xinchao Wang,
- Abstract要約: Flash Sculptorは、単一の画像から3Dシーン/オブジェクトを再構成するための、シンプルで効果的なフレームワークである。
回転には、効率と精度の両面での長所をもたらす粗粒度スキームを導入するが、翻訳には不向きであるが、外乱除去に基づくアルゴリズムを開発する。
実験によると、Flash Sculptorは既存の合成3Dメソッドよりも少なくとも3倍のスピードアップを実現している。
- 参考スコア(独自算出の注目度): 73.63179709035595
- License:
- Abstract: Existing text-to-3D and image-to-3D models often struggle with complex scenes involving multiple objects and intricate interactions. Although some recent attempts have explored such compositional scenarios, they still require an extensive process of optimizing the entire layout, which is highly cumbersome if not infeasible at all. To overcome these challenges, we propose Flash Sculptor in this paper, a simple yet effective framework for compositional 3D scene/object reconstruction from a single image. At the heart of Flash Sculptor lies a divide-and-conquer strategy, which decouples compositional scene reconstruction into a sequence of sub-tasks, including handling the appearance, rotation, scale, and translation of each individual instance. Specifically, for rotation, we introduce a coarse-to-fine scheme that brings the best of both worlds--efficiency and accuracy--while for translation, we develop an outlier-removal-based algorithm that ensures robust and precise parameters in a single step, without any iterative optimization. Extensive experiments demonstrate that Flash Sculptor achieves at least a 3 times speedup over existing compositional 3D methods, while setting new benchmarks in compositional 3D reconstruction performance. Codes are available at https://github.com/YujiaHu1109/Flash-Sculptor.
- Abstract(参考訳): 既存のテキスト・ツー・3Dモデルと画像・ツー・3Dモデルは、複数のオブジェクトと複雑な相互作用を含む複雑なシーンに悩まされることが多い。
このような構成シナリオを探求する最近の試みはいくつかあるが、レイアウト全体を最適化する広範なプロセスが必要である。
本稿では,Flash Sculptorを提案する。Flash Sculptorは,単一画像からの3Dシーン/オブジェクト再構成をシンプルかつ効果的に行うためのフレームワークである。
Flash Sculptorの中心には、構成シーンの再構築をサブタスクのシーケンスに分離し、個々のインスタンスの外観、回転、スケール、翻訳を処理します。
特に、回転には、効率性と精度の両面を最大限に活用する粗粒度スキームを導入するが、変換には相応しいが、1ステップで堅牢かつ正確なパラメータを反復的に最適化することなく、外乱除去に基づくアルゴリズムを開発する。
大規模な実験により、Flash Sculptorは既存の合成3D法よりも少なくとも3倍の高速化を実現し、合成3D再構成性能に新たなベンチマークを設定した。
コードはhttps://github.com/YujiaHu1109/Flash-Sculptor.comで入手できる。
関連論文リスト
- Large Spatial Model: End-to-end Unposed Images to Semantic 3D [79.94479633598102]
大空間モデル(LSM)は、RGB画像を直接意味的放射場に処理する。
LSMは、単一のフィードフォワード操作における幾何学、外観、意味を同時に推定する。
新しい視点で言語と対話することで、多目的ラベルマップを生成することができる。
論文 参考訳(メタデータ) (2024-10-24T17:54:42Z) - MASt3R-SfM: a Fully-Integrated Solution for Unconstrained Structure-from-Motion [12.602510002753815]
我々は最近リリースされた3Dビジョンのための基礎モデルを構築し、局所的な3D再構成と正確なマッチングを堅牢に生成できる。
グローバル座標系における局所的再構成を正確に調整するための低メモリ方式を提案する。
私たちの新しいSfMパイプラインはシンプルで、スケーラブルで、高速で、本当に制約を受けていない。
論文 参考訳(メタデータ) (2024-09-27T21:29:58Z) - REPARO: Compositional 3D Assets Generation with Differentiable 3D Layout Alignment [23.733856513456]
単一画像からの合成3Dアセット生成のための新しいアプローチであるREPAROを提案する。
まず、シーンから個々のオブジェクトを抽出し、オフザシェルフ画像から3Dモデルを使用して、それらの3Dメッシュを再構築する。
次に、異なるレンダリング技術によってこれらのメッシュのレイアウトを最適化し、コヒーレントなシーン構成を保証する。
論文 参考訳(メタデータ) (2024-05-28T18:45:10Z) - Gen3DSR: Generalizable 3D Scene Reconstruction via Divide and Conquer from a Single View [5.222115919729418]
シングルビュー3D再構成は現在、2つの主要な視点からアプローチされている。
分割・分散戦略に従うハイブリッド手法を提案する。
我々は,合成シーンと実世界のシーンの両方において,我々のアプローチの再構築性能を実証する。
論文 参考訳(メタデータ) (2024-04-04T12:58:46Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z) - Iterative Superquadric Recomposition of 3D Objects from Multiple Views [77.53142165205283]
2次元ビューから直接3次元スーパークワッドリックを意味部品として用いたオブジェクトを再構成するフレームワークISCOを提案する。
我々のフレームワークは、再構成エラーが高い場合に、反復的に新しいスーパークワッドリックを追加します。
これは、野生の画像からでも、より正確な3D再構成を提供する。
論文 参考訳(メタデータ) (2023-09-05T10:21:37Z) - Differentiable Blocks World: Qualitative 3D Decomposition by Rendering
Primitives [70.32817882783608]
本稿では,3次元プリミティブを用いて,シンプルでコンパクトで動作可能な3次元世界表現を実現する手法を提案する。
既存の3次元入力データに依存するプリミティブ分解法とは異なり,本手法は画像を直接操作する。
得られたテクスチャ化されたプリミティブは入力画像を忠実に再構成し、視覚的な3Dポイントを正確にモデル化する。
論文 参考訳(メタデータ) (2023-07-11T17:58:31Z) - CoReNet: Coherent 3D scene reconstruction from a single RGB image [43.74240268086773]
我々は1つのRBG画像のみを入力として与えられた1つの物体の形状を再構築する深層学習の進歩の上に構築する。
提案する3つの拡張は,(1)局所的な2次元情報を物理的に正しい方法で出力3Dボリュームに伝播するレイトレーシングスキップ接続,(2)翻訳同変モデルの構築を可能にするハイブリッド3Dボリューム表現,(3)全体オブジェクトの形状を捉えるために調整された再構成損失である。
すべての物体がカメラに対して一貫した1つの3次元座標フレームに居住し、3次元空間内では交差しないコヒーレントな再構成を実現する。
論文 参考訳(メタデータ) (2020-04-27T17:53:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。