論文の概要: Fast3Dcache: Training-free 3D Geometry Synthesis Acceleration
- arxiv url: http://arxiv.org/abs/2511.22533v1
- Date: Thu, 27 Nov 2025 15:13:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.621154
- Title: Fast3Dcache: Training-free 3D Geometry Synthesis Acceleration
- Title(参考訳): Fast3Dcache: トレーニング不要な3D幾何学合成高速化
- Authors: Mengyu Yang, Yanming Yang, Chenyi Xu, Chenxi Song, Yufan Zuo, Tong Zhao, Ruibo Li, Chi Zhang,
- Abstract要約: 我々は3次元拡散推論のためのトレーニング不要な幾何認識キャッシュフレームワークであるFast3Dcacheを提案する。
提案手法は最大27.12%のスピードアップと54.8%のFLOPの削減を実現し,チャンファー距離 (2.48%) とFスコア (1.95%) で測定された幾何学的品質の低下を最小限に抑えた。
- 参考スコア(独自算出の注目度): 16.87269278147738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have achieved impressive generative quality across modalities like 2D images, videos, and 3D shapes, but their inference remains computationally expensive due to the iterative denoising process. While recent caching-based methods effectively reuse redundant computations to speed up 2D and video generation, directly applying these techniques to 3D diffusion models can severely disrupt geometric consistency. In 3D synthesis, even minor numerical errors in cached latent features accumulate, causing structural artifacts and topological inconsistencies. To overcome this limitation, we propose Fast3Dcache, a training-free geometry-aware caching framework that accelerates 3D diffusion inference while preserving geometric fidelity. Our method introduces a Predictive Caching Scheduler Constraint (PCSC) to dynamically determine cache quotas according to voxel stabilization patterns and a Spatiotemporal Stability Criterion (SSC) to select stable features for reuse based on velocity magnitude and acceleration criterion. Comprehensive experiments show that Fast3Dcache accelerates inference significantly, achieving up to a 27.12% speed-up and a 54.8% reduction in FLOPs, with minimal degradation in geometric quality as measured by Chamfer Distance (2.48%) and F-Score (1.95%).
- Abstract(参考訳): 拡散モデルは、2D画像、ビデオ、そして3D形状などのモダリティで印象的な生成品質を達成したが、その推論は反復的復調プロセスのために計算コストがかかり続けている。
最近のキャッシュベースの手法では、冗長な計算を効果的に再利用して2Dおよびビデオ生成を高速化するが、これらの手法を直接3D拡散モデルに適用することで、幾何的一貫性を著しく損なう可能性がある。
3次元合成では、キャッシュされた潜伏特徴の小さな数値誤差が蓄積され、構造的アーティファクトと位相的不整合が生じる。
この制限を克服するために,幾何学的忠実性を保ちながら3次元拡散推論を高速化するトレーニング不要な幾何認識キャッシングフレームワークであるFast3Dcacheを提案する。
本手法では,ボクセル安定化パターンに従ってキャッシュクォータを動的に決定する予測キャッシングスケジューリング制約 (PCSC) と時空間安定化基準 (SSC) を導入し,速度の最大値と加速基準に基づいて,再利用のための安定な特徴を選択する。
総合的な実験によると、Fast3Dcacheは推論を著しく加速し、最大27.12%のスピードアップと54.8%のFLOPを実現し、チャンファー距離(2.48%)とFスコア(1.95%)で測定された幾何学的品質の低下を最小限に抑える。
関連論文リスト
- ITS3D: Inference-Time Scaling for Text-Guided 3D Diffusion Models [88.04431808574581]
ITS3Dは、最も効果的なガウス雑音入力を特定するための最適化問題としてタスクを定式化するフレームワークである。
安定性, 効率, 探索能力を向上させるための3つの技術を紹介する。
実験により、ITS3Dはテキストから3D生成の品質を向上させることが示された。
論文 参考訳(メタデータ) (2025-11-27T13:46:16Z) - LightCache: Memory-Efficient, Training-Free Acceleration for Video Generation [40.968338980157846]
拡散モデルに基づくビデオ生成の先進的な研究領域として、トレーニングフリー加速が出現している。
本稿では,推論過程を符号化・復号化・復号化段階に分解する。
本稿では,メモリ消費を減らすためのステージ固有の戦略を提案する。
論文 参考訳(メタデータ) (2025-10-06T20:54:44Z) - Predictive Feature Caching for Training-free Acceleration of Molecular Geometry Generation [67.20779609022108]
フローマッチングモデルは、高忠実度分子ジオメトリを生成するが、推論中にかなりの計算コストを発生させる。
本研究は,分子幾何生成を加速する学習自由キャッシング戦略について論じる。
GEOM-Drugsデータセットの実験は、キャッシングがウォールクロックの推測時間の2倍の削減を実現することを示した。
論文 参考訳(メタデータ) (2025-10-06T09:49:14Z) - A Continuous-Time Consistency Model for 3D Point Cloud Generation [0.6308539010172308]
点空間で直接3Dを合成する連続時間一貫性モデルであるConTiCoM-3Dを導入する。
この方法は、TrigFlowにインスパイアされた連続ノイズスケジュールと、Chamfer Distanceに基づく幾何損失を統合する。
ShapeNetベンチマークの実験では、ConTiCoM-3Dは、最先端の拡散モデルと潜時一貫性モデルとを品質と効率の両方で一致または比較している。
論文 参考訳(メタデータ) (2025-09-01T14:11:59Z) - Ultron: Enabling Temporal Geometry Compression of 3D Mesh Sequences using Temporal Correspondence and Mesh Deformation [2.0914328542137346]
既存の3Dモデル圧縮手法は主に静的モデルに焦点を当てており、フレーム間情報を考慮していない。
本稿では,時間的対応とメッシュ変形を用いた任意のトポロジでメッシュ列を圧縮する方法を提案する。
論文 参考訳(メタデータ) (2024-09-08T16:34:19Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - Fast-SNARF: A Fast Deformer for Articulated Neural Fields [92.68788512596254]
本稿では,標準空間とポーズ空間の正確な対応性を求める,ニューラルフィールドのための新しい調音モジュールFast-SNARFを提案する。
Fast-SNARFはこれまでの研究であるSNARFの代替であり、計算効率は大幅に向上した。
変形マップの学習は多くの3次元人間のアバター法において重要な要素であるため、この研究は3次元仮想人間の実現に向けた重要なステップであると考えている。
論文 参考訳(メタデータ) (2022-11-28T17:55:34Z) - A Real-time Action Representation with Temporal Encoding and Deep
Compression [115.3739774920845]
動作表現のための時間畳み込み3Dネットワーク(T-C3D)と呼ばれる新しいリアルタイム畳み込みアーキテクチャを提案する。
T-C3Dは、高プロセス速度を得ながら、階層的な多粒度でビデオアクション表現を学習する。
提案手法は,5MB未満のストレージモデルを用いて,提案手法の精度5.4%,推論速度2倍の高速化を実現した。
論文 参考訳(メタデータ) (2020-06-17T06:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。