論文の概要: Spherical Geometry Diffusion: Generating High-quality 3D Face Geometry via Sphere-anchored Representations
- arxiv url: http://arxiv.org/abs/2601.13371v1
- Date: Mon, 19 Jan 2026 20:15:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.048679
- Title: Spherical Geometry Diffusion: Generating High-quality 3D Face Geometry via Sphere-anchored Representations
- Title(参考訳): 球面形状拡散:球面アンコール表現による高品質な3次元顔形状の生成
- Authors: Junyi Zhang, Yiming Wang, Yunhong Lu, Qichao Wang, Wenzhe Qian, Xiaoyin Xu, David Gu, Min Zhang,
- Abstract要約: テキストから3Dの顔生成における根本的な課題は、高品質な幾何学を実現することである。
球面座標に幾何学的信号を固定する新しい顔表現である球面幾何表現を導入する。
次に、この2次元マップ上に構築された条件拡散フレームワークである球拡散幾何学を紹介する。
- 参考スコア(独自算出の注目度): 18.442834011472005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A fundamental challenge in text-to-3D face generation is achieving high-quality geometry. The core difficulty lies in the arbitrary and intricate distribution of vertices in 3D space, making it challenging for existing models to establish clean connectivity and resulting in suboptimal geometry. To address this, our core insight is to simplify the underlying geometric structure by constraining the distribution onto a simple and regular manifold, a topological sphere. Building on this, we first propose the Spherical Geometry Representation, a novel face representation that anchors geometric signals to uniform spherical coordinates. This guarantees a regular point distribution, from which the mesh connectivity can be robustly reconstructed. Critically, this canonical sphere can be seamlessly unwrapped into a 2D map, creating a perfect synergy with powerful 2D generative models. We then introduce Spherical Geometry Diffusion, a conditional diffusion framework built upon this 2D map. It enables diverse and controllable generation by jointly modeling geometry and texture, where the geometry explicitly conditions the texture synthesis process. Our method's effectiveness is demonstrated through its success in a wide range of tasks: text-to-3D generation, face reconstruction, and text-based 3D editing. Extensive experiments show that our approach substantially outperforms existing methods in geometric quality, textual fidelity, and inference efficiency.
- Abstract(参考訳): テキストから3Dの顔生成における基本的な課題は、高品質な幾何学を実現することである。
中心的な困難は、3次元空間における頂点の任意かつ複雑な分布であり、既存のモデルがクリーンな接続を確立することが困難であり、結果として準最適幾何学が生じる。
これを解決するために、我々の中心となる洞察は、分布を単純で正則な多様体、位相球面に制限することで、基礎となる幾何学的構造を単純化することである。
そこで我々はまず,一様球面座標に幾何学的信号を固定する新しい顔表現である球面幾何表現を提案する。
これにより、メッシュ接続を堅牢に再構築できる定期的なポイント分布が保証される。
批判的に言えば、この標準球体はシームレスに2Dマップに切り離すことができ、強力な2D生成モデルと完璧なシナジーを生み出す。
次に、この2次元マップ上に構築された条件付き拡散フレームワークである球形幾何拡散を導入する。
幾何学とテクスチャを共同でモデル化することで、多種多様な制御可能な生成を可能にする。
提案手法の有効性は,テキスト・ツー・3D生成,顔再構成,テキスト・ベースの3D編集など,幅広いタスクで成功を収めることによって実証される。
大規模な実験により,本手法は,幾何学的品質,テキストの忠実度,推論効率において,既存の手法を著しく上回っていることが示された。
関連論文リスト
- GeoWorld: Unlocking the Potential of Geometry Models to Facilitate High-Fidelity 3D Scene Generation [68.02988074681427]
画像から3Dのシーン生成にビデオモデルを利用する以前の研究は、幾何学的歪みやぼやけた内容に悩まされる傾向にある。
本稿では,幾何学モデルの可能性を解き放つことにより,画像から3次元のシーン生成のパイプラインを再構築する。
我々のGeoWorldは、1つの画像と所定のカメラ軌道から高忠実度3Dシーンを生成することができ、定性的かつ定量的に先行手法より優れている。
論文 参考訳(メタデータ) (2025-11-28T13:55:45Z) - Generating Surface for Text-to-3D using 2D Gaussian Splatting [7.610379621632961]
そこで本研究では,サーベイルで表される3次元物体の表面を生成することに焦点を当てたDirectGaussianという新しい手法を提案する。
DirectGaussianでは条件付きテキスト生成モデルを使用し、3次元オブジェクトの表面を2次元ガウススプラッティングで描画する。
我々のフレームワークは多種多様な高忠実な3Dコンテンツ作成を実現することができる。
論文 参考訳(メタデータ) (2025-10-08T12:54:57Z) - Seeing 3D Through 2D Lenses: 3D Few-Shot Class-Incremental Learning via Cross-Modal Geometric Rectification [59.17489431187807]
本稿では,CLIPの階層的空間意味論を活用することで3次元幾何学的忠実度を高めるフレームワークを提案する。
本手法は3次元のクラスインクリメンタル学習を著しく改善し,テクスチャバイアスに対して優れた幾何コヒーレンスとロバスト性を実現する。
論文 参考訳(メタデータ) (2025-09-18T13:45:08Z) - Shape from Semantics: 3D Shape Generation from Multi-View Semantics [30.969299308083723]
既存の3D再構成手法では, 3次元画像, 3次元点雲, 形状輪郭, 単一意味論などのガイダンスを用いて3次元表面を復元する。
図形や外観が、異なる視点から見ると、与えられたテキストの意味と一致した3Dモデルを作成することを目的として、新しい3Dモデリングタスク「Shape from Semantics'」を提案する。
論文 参考訳(メタデータ) (2025-02-01T07:51:59Z) - Geometry-guided Feature Learning and Fusion for Indoor Scene Reconstruction [14.225228781008209]
本稿では3次元シーン再構成のための新しい幾何学的統合機構を提案する。
提案手法は,特徴学習,特徴融合,ネットワーク監視という3段階の3次元幾何学を取り入れている。
論文 参考訳(メタデータ) (2024-08-28T08:02:47Z) - GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - DSG-Net: Learning Disentangled Structure and Geometry for 3D Shape
Generation [98.96086261213578]
DSG-Netは3次元形状の非交叉構造と幾何学的メッシュ表現を学習するディープニューラルネットワークである。
これは、幾何(構造)を不変に保ちながら構造(幾何学)のような不整合制御を持つ新しい形状生成アプリケーションの範囲をサポートする。
本手法は,制御可能な生成アプリケーションだけでなく,高品質な合成形状を生成できる。
論文 参考訳(メタデータ) (2020-08-12T17:06:51Z) - Deep Geometric Texture Synthesis [83.9404865744028]
幾何学的テクスチャを合成するための新しい枠組みを提案する。
単一の参照3Dモデルの局所的な近傍からテクスチャ統計を学習する。
我々のネットワークはメッシュ頂点を任意の方向に変位させ、幾何学的テクスチャの合成を可能にする。
論文 参考訳(メタデータ) (2020-06-30T19:36:38Z) - PUGeo-Net: A Geometry-centric Network for 3D Point Cloud Upsampling [103.09504572409449]
PUGeo-Netと呼ばれる新しいディープニューラルネットワークを用いた一様高密度点雲を生成する手法を提案する。
その幾何学中心の性質のおかげで、PUGeo-Netはシャープな特徴を持つCADモデルとリッチな幾何学的詳細を持つスキャンされたモデルの両方でうまく機能する。
論文 参考訳(メタデータ) (2020-02-24T14:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。