論文の概要: Chirpy3D: Creative Fine-grained 3D Object Fabrication via Part Sampling
- arxiv url: http://arxiv.org/abs/2501.04144v2
- Date: Fri, 28 Mar 2025 19:45:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:28:24.904001
- Title: Chirpy3D: Creative Fine-grained 3D Object Fabrication via Part Sampling
- Title(参考訳): Chirpy3D:部品サンプリングによる細粒度3Dオブジェクトの創成
- Authors: Kam Woh Ng, Jing Yang, Jia Wei Sii, Jiankang Deng, Chee Seng Chan, Yi-Zhe Song, Tao Xiang, Xiatian Zhu,
- Abstract要約: Chirpy3Dは、ゼロショット設定で微細な3Dオブジェクトを生成するための新しいアプローチである。
モデルは、可塑性な3D構造を推測し、きめ細かい細部を捉え、新しい物体に一般化する必要がある。
我々の実験では、Cirpy3Dは、高品質できめ細かな細部を持つ創造的な3Dオブジェクトを生成する既存の手法を超越していることが示されている。
- 参考スコア(独自算出の注目度): 128.23917788822948
- License:
- Abstract: We present Chirpy3D, a novel approach for fine-grained 3D object generation, tackling the challenging task of synthesizing creative 3D objects in a zero-shot setting, with access only to unposed 2D images of seen categories. Without structured supervision -- such as camera poses, 3D part annotations, or object-specific labels -- the model must infer plausible 3D structures, capture fine-grained details, and generalize to novel objects using only category-level labels from seen categories. To address this, Chirpy3D introduces a multi-view diffusion model that decomposes training objects into anchor parts in an unsupervised manner, representing the latent space of both seen and unseen parts as continuous distributions. This allows smooth interpolation and flexible recombination of parts to generate entirely new objects with species-specific details. A self-supervised feature consistency loss further ensures structural and semantic coherence. The result is the first system capable of generating entirely novel 3D objects with species-specific fine-grained details through flexible part sampling and composition. Our experiments demonstrate that Chirpy3D surpasses existing methods in generating creative 3D objects with higher quality and fine-grained details. Code will be released at https://github.com/kamwoh/chirpy3d.
- Abstract(参考訳): 我々は、ゼロショット設定で創造的な3Dオブジェクトを合成する難題に対処する、細粒度3Dオブジェクト生成の新しいアプローチであるChirpy3Dを提案する。
カメラのポーズ、3D部分アノテーション、オブジェクト固有のラベルなど、構造化された監督がなければ、モデルは、もっともらしい3D構造を推測し、きめ細かな詳細をキャプチャし、見たカテゴリのカテゴリレベルのラベルのみを使用して、新しいオブジェクトに一般化する必要がある。
この問題を解決するために、Chirpy3Dは、トレーニング対象を教師なしの方法でアンカー部分に分解する多視点拡散モデルを導入し、目に見えない部分と見えない部分の両方の潜在空間を連続分布として表現した。
これにより、スムーズな補間と柔軟な部品の組換えにより、種特異的な詳細を持つ全く新しい物体を生成できる。
自己教師付き特徴整合性損失により、構造的および意味的一貫性がさらに確保される。
その結果、フレキシブルな部分サンプリングと合成によって、種特異的なきめ細かい細部を持つ全く新しい3Dオブジェクトを生成できる最初のシステムとなった。
我々の実験では、Cirpy3Dは、高品質できめ細かな細部を持つ創造的な3Dオブジェクトを生成する既存の手法を超越していることが示されている。
コードはhttps://github.com/kamwoh/chirpy3d.comでリリースされる。
関連論文リスト
- PartGen: Part-level 3D Generation and Reconstruction with Multi-View Diffusion Models [63.1432721793683]
テキスト,画像,構造化されていない3Dオブジェクトから意味のある部分からなる3Dオブジェクトを生成する新しいアプローチであるPartGenを紹介する。
提案手法は, 生成された実物および実物の3次元資産に対して評価し, セグメンテーションおよび部分抽出ベースラインを大きなマージンで上回っていることを示す。
論文 参考訳(メタデータ) (2024-12-24T18:59:43Z) - 3D$^2$-Actor: Learning Pose-Conditioned 3D-Aware Denoiser for Realistic Gaussian Avatar Modeling [37.11454674584874]
ポーズ条件付き3D対応ヒューマンモデリングパイプラインである3D$2$-Actorを導入する。
実験により、3D$2$-アクターは高忠実度アバターモデリングにおいて優れ、新しいポーズに頑健に一般化することを示した。
論文 参考訳(メタデータ) (2024-12-16T09:37:52Z) - Sculpt3D: Multi-View Consistent Text-to-3D Generation with Sparse 3D Prior [57.986512832738704]
本稿では,2次元拡散モデルを再学習することなく,抽出した参照オブジェクトから3次元先行を明示的に注入する,電流パイプラインを備えた新しいフレームワークSculpt3Dを提案する。
具体的には、スパース線サンプリングによるキーポイントの監督により、高品質で多様な3次元形状を保証できることを実証する。
これら2つの分離された設計は、参照オブジェクトからの3D情報を利用して、2D拡散モデルの生成品質を保ちながら、3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2024-03-14T07:39:59Z) - WildFusion: Learning 3D-Aware Latent Diffusion Models in View Space [77.92350895927922]
潜在拡散モデル(LDM)に基づく3次元画像合成の新しいアプローチであるWildFusionを提案する。
我々の3D対応LCMは、マルチビュー画像や3D幾何学を直接監督することなく訓練されている。
これにより、スケーラブルな3D認識画像合成と、Wild画像データから3Dコンテンツを作成するための有望な研究道が開かれる。
論文 参考訳(メタデータ) (2023-11-22T18:25:51Z) - Creative Birds: Self-Supervised Single-View 3D Style Transfer [23.64817899864608]
形状とテクスチャを両立させたユニークな3Dオブジェクトを生成する一視点3Dスタイル転送法を提案する。
本研究は,3次元再構成において一般的な課題である鳥に焦点をあてるものであり,既存の単視3次元転写法は開発されていない。
論文 参考訳(メタデータ) (2023-07-26T11:47:44Z) - Generative Novel View Synthesis with 3D-Aware Diffusion Models [96.78397108732233]
単一入力画像から3D対応の新規ビュー合成のための拡散モデルを提案する。
提案手法は既存の2次元拡散バックボーンを利用するが,重要な点として,幾何学的先行を3次元特徴体積の形で組み込む。
新たなビュー生成に加えて,本手法は3次元一貫性シーケンスを自己回帰的に合成する機能を備えている。
論文 参考訳(メタデータ) (2023-04-05T17:15:47Z) - SurroundOcc: Multi-Camera 3D Occupancy Prediction for Autonomous Driving [98.74706005223685]
3Dシーン理解は、視覚に基づく自動運転において重要な役割を果たす。
マルチカメラ画像を用いたSurroundOcc法を提案する。
論文 参考訳(メタデータ) (2023-03-16T17:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。