論文の概要: FreeArt3D: Training-Free Articulated Object Generation using 3D Diffusion
- arxiv url: http://arxiv.org/abs/2510.25765v1
- Date: Wed, 29 Oct 2025 17:58:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 18:06:02.070352
- Title: FreeArt3D: Training-Free Articulated Object Generation using 3D Diffusion
- Title(参考訳): FreeArt3D:3次元拡散を用いた訓練不要人工物生成
- Authors: Chuhao Chen, Isabella Liu, Xinyue Wei, Hao Su, Minghua Liu,
- Abstract要約: FreeArt3Dは3Dオブジェクト生成のためのトレーニング不要のフレームワークである。
提案手法は,高忠実度形状とテクスチャを生成し,基礎構造を正確に予測し,多様な対象カテゴリにまたがってよく一般化する。
- 参考スコア(独自算出の注目度): 25.931275355785917
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Articulated 3D objects are central to many applications in robotics, AR/VR, and animation. Recent approaches to modeling such objects either rely on optimization-based reconstruction pipelines that require dense-view supervision or on feed-forward generative models that produce coarse geometric approximations and often overlook surface texture. In contrast, open-world 3D generation of static objects has achieved remarkable success, especially with the advent of native 3D diffusion models such as Trellis. However, extending these methods to articulated objects by training native 3D diffusion models poses significant challenges. In this work, we present FreeArt3D, a training-free framework for articulated 3D object generation. Instead of training a new model on limited articulated data, FreeArt3D repurposes a pre-trained static 3D diffusion model (e.g., Trellis) as a powerful shape prior. It extends Score Distillation Sampling (SDS) into the 3D-to-4D domain by treating articulation as an additional generative dimension. Given a few images captured in different articulation states, FreeArt3D jointly optimizes the object's geometry, texture, and articulation parameters without requiring task-specific training or access to large-scale articulated datasets. Our method generates high-fidelity geometry and textures, accurately predicts underlying kinematic structures, and generalizes well across diverse object categories. Despite following a per-instance optimization paradigm, FreeArt3D completes in minutes and significantly outperforms prior state-of-the-art approaches in both quality and versatility.
- Abstract(参考訳): アーティキュレートされた3Dオブジェクトは、ロボット工学、AR/VR、アニメーションにおける多くの応用の中心である。
このようなオブジェクトをモデリングするための最近のアプローチは、密集ビューの監督を必要とする最適化ベースの再構築パイプラインや、粗い幾何学的近似を生成するフィードフォワード生成モデルに依存し、しばしば表面テクスチャを見落としている。
対照的に、オープンワールドの静的オブジェクトの3D生成は、特にTrellisのようなネイティブな3D拡散モデルの出現によって、顕著な成功を収めた。
しかし,これらの手法を3次元拡散モデルの訓練により対象物に拡張することは重要な課題である。
本稿では,3次元オブジェクト生成のためのトレーニングフリーフレームワークであるFreeArt3Dを紹介する。
制限付きデータで新しいモデルをトレーニングする代わりに、FreeArt3Dはトレーニング済みの静的な3D拡散モデル(例:Trellis)を以前の強力な形状として再利用する。
SDS(Score Distillation Sampling)を3D-to-4Dドメインに拡張し、調音を付加的な生成次元として扱う。
異なる調音状態で撮影されたいくつかの画像が与えられた後、FreeArt3Dはタスク固有のトレーニングや大規模調音データセットへのアクセスを必要とせずに、オブジェクトの幾何学、テクスチャ、調音パラメータを共同で最適化する。
提案手法は,高忠実度形状とテクスチャを生成し,基礎となる運動構造を正確に予測し,多様な対象カテゴリにまたがってよく一般化する。
インスタンスごとの最適化パラダイムに従っているにもかかわらず、FreeArt3Dは数分で完成し、品質と汎用性の両方において最先端のアプローチよりも大幅に優れています。
関連論文リスト
- End-to-End Fine-Tuning of 3D Texture Generation using Differentiable Rewards [8.953379216683732]
本稿では,人間のフィードバックを3次元テクスチャパイプラインに直接埋め込む,エンドツーエンドの微分可能・強化学習不要なフレームワークを提案する。
幾何学的および外見的モジュールによる好み信号のバックプロパゲーションにより、3次元幾何学的構造を尊重し、所望の基準と整合するテクスチャを生成する。
論文 参考訳(メタデータ) (2025-06-23T06:24:12Z) - Enhancing Single Image to 3D Generation using Gaussian Splatting and Hybrid Diffusion Priors [17.544733016978928]
単一の画像から3Dオブジェクトを生成するには、野生で撮影された未ポーズのRGB画像から、目に見えない景色の完全な3D形状とテクスチャを推定する必要がある。
3次元オブジェクト生成の最近の進歩は、物体の形状とテクスチャを再構築する技術を導入している。
本稿では, この限界に対応するために, 2次元拡散モデルと3次元拡散モデルとのギャップを埋めることを提案する。
論文 参考訳(メタデータ) (2024-10-12T10:14:11Z) - DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - ComboVerse: Compositional 3D Assets Creation Using Spatially-Aware Diffusion Guidance [76.7746870349809]
複雑な構成で高品質な3Dアセットを生成する3D生成フレームワークであるComboVerseについて,複数のモデルを組み合わせることを学習して紹介する。
提案手法は,標準スコア蒸留法と比較して,物体の空間的アライメントを重視している。
論文 参考訳(メタデータ) (2024-03-19T03:39:43Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。