論文の概要: A Continuous-Time Consistency Model for 3D Point Cloud Generation
- arxiv url: http://arxiv.org/abs/2509.01492v1
- Date: Mon, 01 Sep 2025 14:11:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.728484
- Title: A Continuous-Time Consistency Model for 3D Point Cloud Generation
- Title(参考訳): 3次元点雲生成のための連続時間一貫性モデル
- Authors: Sebastian Eilermann, René Heesch, Oliver Niggemann,
- Abstract要約: 点空間で直接3Dを合成する連続時間一貫性モデルであるConTiCoM-3Dを導入する。
この方法は、TrigFlowにインスパイアされた連続ノイズスケジュールと、Chamfer Distanceに基づく幾何損失を統合する。
ShapeNetベンチマークの実験では、ConTiCoM-3Dは、最先端の拡散モデルと潜時一貫性モデルとを品質と効率の両方で一致または比較している。
- 参考スコア(独自算出の注目度): 0.6308539010172308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fast and accurate 3D shape generation from point clouds is essential for applications in robotics, AR/VR, and digital content creation. We introduce ConTiCoM-3D, a continuous-time consistency model that synthesizes 3D shapes directly in point space, without discretized diffusion steps, pre-trained teacher models, or latent-space encodings. The method integrates a TrigFlow-inspired continuous noise schedule with a Chamfer Distance-based geometric loss, enabling stable training on high-dimensional point sets while avoiding expensive Jacobian-vector products. This design supports efficient one- to two-step inference with high geometric fidelity. In contrast to previous approaches that rely on iterative denoising or latent decoders, ConTiCoM-3D employs a time-conditioned neural network operating entirely in continuous time, thereby achieving fast generation. Experiments on the ShapeNet benchmark show that ConTiCoM-3D matches or outperforms state-of-the-art diffusion and latent consistency models in both quality and efficiency, establishing it as a practical framework for scalable 3D shape generation.
- Abstract(参考訳): ポイントクラウドからの高速かつ正確な3D形状生成は、ロボティクス、AR/VR、デジタルコンテンツ作成におけるアプリケーションに不可欠である。
ConTiCoM-3Dは3次元形状を直接点空間で合成する連続時間一貫性モデルである。
この手法はTrigFlowにインスパイアされた連続ノイズスケジュールとChamfer Distanceに基づく幾何損失を統合し、高価なジャコビアンベクトル製品を避けながら高次元点集合の安定したトレーニングを可能にする。
この設計は、幾何学的忠実度の高い効率的な1段階から2段階の推論をサポートする。
ConTiCoM-3Dは、反復デノケーションや潜時デコーダに依存する従来のアプローチとは対照的に、時間条件付きニューラルネットワークを完全に連続的に動作させ、高速な生成を実現する。
ShapeNetベンチマークの実験によると、ConTiCoM-3Dは、最先端の拡散モデルと潜時一貫性モデルに品質と効率の両方で適合し、スケーラブルな3D形状生成のための実用的なフレームワークとして確立されている。
関連論文リスト
- LTM3D: Bridging Token Spaces for Conditional 3D Generation with Auto-Regressive Diffusion Framework [40.17218893870908]
LTM3Dは条件付き3次元形状生成のための潜在トークン空間モデリングフレームワークである。
拡散と自己回帰(Auto-Regressive、AR)モデルの強みを統合する。
LTM3Dはマルチモーダル・マルチ表現3D生成のための一般化可能なフレームワークを提供する。
論文 参考訳(メタデータ) (2025-05-30T06:08:45Z) - Atlas3D: Physically Constrained Self-Supporting Text-to-3D for Simulation and Fabrication [50.541882834405946]
我々は,テキストから3Dへの自動的実装であるAtlas3Dを紹介する。
提案手法は,新しい微分可能シミュレーションに基づく損失関数と,物理的にインスパイアされた正規化を組み合わせたものである。
我々は、Atlas3Dの有効性を広範囲な生成タスクを通して検証し、シミュレーションと実環境の両方で結果の3Dモデルを検証する。
論文 参考訳(メタデータ) (2024-05-28T18:33:18Z) - LN3Diff: Scalable Latent Neural Fields Diffusion for Speedy 3D Generation [73.36690511083894]
本稿では,LN3Diffと呼ばれる新しいフレームワークを導入し,統一された3次元拡散パイプラインに対処する。
提案手法では,3次元アーキテクチャと変分オートエンコーダを用いて,入力画像を構造化されたコンパクトな3次元潜在空間に符号化する。
3次元生成のためのShapeNetの最先端性能を実現し,モノクロ3次元再構成と条件付き3次元生成において優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-18T17:54:34Z) - Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - Spice-E : Structural Priors in 3D Diffusion using Cross-Entity Attention [9.52027244702166]
Spice-Eは3D拡散モデルに構造ガイダンスを追加するニューラルネットワークである。
提案手法は,3次元スタイリゼーション,意味的形状の編集,テキスト条件の抽象化-to-3Dなど,様々なアプリケーションをサポートする。
論文 参考訳(メタデータ) (2023-11-29T17:36:49Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。