論文の概要: Chirpy3D: Continuous Part Latents for Creative 3D Bird Generation
- arxiv url: http://arxiv.org/abs/2501.04144v1
- Date: Tue, 07 Jan 2025 21:14:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 14:55:16.023948
- Title: Chirpy3D: Continuous Part Latents for Creative 3D Bird Generation
- Title(参考訳): Chirpy3D: 創造的な3Dバードジェネレーションのための連続部品潜水装置
- Authors: Kam Woh Ng, Jing Yang, Jia Wei Sii, Jiankang Deng, Chee Seng Chan, Yi-Zhe Song, Tao Xiang, Xiatian Zhu,
- Abstract要約: 現在のメソッドは複雑な詳細を欠いているか、既存のオブジェクトを単純に模倣している。
マルチビュー拡散およびモデリング部を連続分布として使用することで、完全に新しい、かつ可塑性なパーツを生成することができる。
その結果、既存の例を超越した種特異的な細部を持つ新しい3Dオブジェクトを作成できる最初のシステムとなった。
- 参考スコア(独自算出の注目度): 128.23917788822948
- License:
- Abstract: In this paper, we push the boundaries of fine-grained 3D generation into truly creative territory. Current methods either lack intricate details or simply mimic existing objects -- we enable both. By lifting 2D fine-grained understanding into 3D through multi-view diffusion and modeling part latents as continuous distributions, we unlock the ability to generate entirely new, yet plausible parts through interpolation and sampling. A self-supervised feature consistency loss further ensures stable generation of these unseen parts. The result is the first system capable of creating novel 3D objects with species-specific details that transcend existing examples. While we demonstrate our approach on birds, the underlying framework extends beyond things that can chirp! Code will be released at https://github.com/kamwoh/chirpy3d.
- Abstract(参考訳): 本稿では,細粒度3D世代の境界を真に創造的な領域に推し進める。
現在のメソッドには複雑な詳細が欠けているか、既存のオブジェクトを単純に模倣しているのです。
多視点拡散・モデリング部を連続分布とする2次元微粒化理解を3次元に引き上げることで、補間とサンプリングによって完全に新しい、しかしもっともらしい部品を生成することができる。
自己監督的特徴整合性損失は、これらの見えない部分の安定した生成をさらに保証する。
その結果、既存の例を超越した種特異的な細部を持つ新しい3Dオブジェクトを作成できる最初のシステムとなった。
鳥に対する私たちのアプローチを実証する一方で、基盤となるフレームワークは、刈り取ることができるものを超えて拡張されています!
コードはhttps://github.com/kamwoh/chirpy3d.comでリリースされる。
関連論文リスト
- Sculpt3D: Multi-View Consistent Text-to-3D Generation with Sparse 3D Prior [57.986512832738704]
本稿では,2次元拡散モデルを再学習することなく,抽出した参照オブジェクトから3次元先行を明示的に注入する,電流パイプラインを備えた新しいフレームワークSculpt3Dを提案する。
具体的には、スパース線サンプリングによるキーポイントの監督により、高品質で多様な3次元形状を保証できることを実証する。
これら2つの分離された設計は、参照オブジェクトからの3D情報を利用して、2D拡散モデルの生成品質を保ちながら、3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2024-03-14T07:39:59Z) - V3D: Video Diffusion Models are Effective 3D Generators [19.33837029942662]
本稿では、事前学習したビデオ拡散モデルの世界シミュレーション能力を活用して、3D生成を容易にするV3Dを紹介する。
これを利用して、最先端のビデオ拡散モデルを微調整して、1つの画像が与えられた物体を囲む360度軌道フレームを生成することができる。
提案手法はシーンレベルの新規ビュー合成に拡張可能であり,スパース・インプット・ビューによるカメラ・パスの正確な制御を実現する。
論文 参考訳(メタデータ) (2024-03-11T14:03:36Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - WildFusion: Learning 3D-Aware Latent Diffusion Models in View Space [77.92350895927922]
潜在拡散モデル(LDM)に基づく3次元画像合成の新しいアプローチであるWildFusionを提案する。
我々の3D対応LCMは、マルチビュー画像や3D幾何学を直接監督することなく訓練されている。
これにより、スケーラブルな3D認識画像合成と、Wild画像データから3Dコンテンツを作成するための有望な研究道が開かれる。
論文 参考訳(メタデータ) (2023-11-22T18:25:51Z) - Creative Birds: Self-Supervised Single-View 3D Style Transfer [23.64817899864608]
形状とテクスチャを両立させたユニークな3Dオブジェクトを生成する一視点3Dスタイル転送法を提案する。
本研究は,3次元再構成において一般的な課題である鳥に焦点をあてるものであり,既存の単視3次元転写法は開発されていない。
論文 参考訳(メタデータ) (2023-07-26T11:47:44Z) - Generative Novel View Synthesis with 3D-Aware Diffusion Models [96.78397108732233]
単一入力画像から3D対応の新規ビュー合成のための拡散モデルを提案する。
提案手法は既存の2次元拡散バックボーンを利用するが,重要な点として,幾何学的先行を3次元特徴体積の形で組み込む。
新たなビュー生成に加えて,本手法は3次元一貫性シーケンスを自己回帰的に合成する機能を備えている。
論文 参考訳(メタデータ) (2023-04-05T17:15:47Z) - SurroundOcc: Multi-Camera 3D Occupancy Prediction for Autonomous Driving [98.74706005223685]
3Dシーン理解は、視覚に基づく自動運転において重要な役割を果たす。
マルチカメラ画像を用いたSurroundOcc法を提案する。
論文 参考訳(メタデータ) (2023-03-16T17:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。