論文の概要: Fast 3D Diffusion for Scalable Granular Media Synthesis
- arxiv url: http://arxiv.org/abs/2508.19752v1
- Date: Wed, 27 Aug 2025 10:27:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.592429
- Title: Fast 3D Diffusion for Scalable Granular Media Synthesis
- Title(参考訳): スケーラブルなグラニュラーメディア合成のための高速3次元拡散
- Authors: Muhammad Moeeze Hassan, Régis Cottereau, Filippo Gatti, Patryk Dec,
- Abstract要約: 新しい生成パイプラインは、最終および物理的に現実的な構成で大きな粒状集合体を合成するために開発されている。
3時間DEMシミュレーションに匹敵する1.2mの弾道線合成が20秒で完了した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simulating granular media, using Discrete Element Method is a computationally intensive task. This is especially true during initialization phase, which dominates total simulation time because of large displacements involved and associated kinetic energy. We overcome this bottleneck with a novel generative pipeline based on 3D diffusion models that directly synthesizes arbitrarily large granular assemblies in their final and physically realistic configurations. The approach frames the problem as a 3D generative modeling task, consisting of a two-stage pipeline. First a diffusion model is trained to generate independent 3D voxel grids representing granular media. Second, a 3D inpainting model, adapted from 2D inpainting techniques using masked inputs, stitches these grids together seamlessly, enabling synthesis of large samples with physically realistic structure. The inpainting model explores several masking strategies for the inputs to the underlying UNets by training the network to infer missing portions of voxel grids from a concatenation of noised tensors, masks, and masked tensors as input channels. The model also adapts a 2D repainting technique of re-injecting noise scheduler output with ground truth to provide a strong guidance to the 3D model. This along with weighted losses ensures long-term coherence over generation of masked regions. Both models are trained on the same binarized 3D occupancy grids extracted from small-scale DEM simulations, achieving linear scaling of computational time with respect to sample size. Quantitatively, a 1.2 m long ballasted rail track synthesis equivalent to a 3-hour DEM simulation, was completed under 20 seconds. The generated voxel grids can also be post-processed to extract grain geometries for DEM-compatibility as well, enabling physically coherent, real-time, scalable granular media synthesis for industrial applications.
- Abstract(参考訳): 離散要素法による粒状媒体のシミュレーションは計算集約的な作業である。
これは初期化フェーズにおいて特に当てはまり、これは大きな変位と関連する運動エネルギーのためにシミュレーション時間を支配する。
このボトルネックを、3次元拡散モデルに基づく新しい生成パイプラインで克服し、最終的および物理的に現実的な構成で任意の大きさの粒状集合を直接合成する。
このアプローチは、問題を2段階のパイプラインからなる3D生成モデリングタスクとして表している。
まず、拡散モデルを用いて、粒状媒体を表す独立した3Dボクセルグリッドを生成する。
第二に、マスク入力を用いた2Dインペイント技術から適応した3Dインペイントモデルが、これらのグリッドをシームレスに縫合し、物理的に現実的な構造を持つ大規模なサンプルの合成を可能にする。
塗装モデルは、ノイズテンソル、マスク、マスクテンソルの結合からボクセルグリッドの欠落部分を入力チャネルとして推論するようにネットワークを訓練することにより、基礎となるUNetsへの入力のためのいくつかのマスキング戦略を探索する。
モデルはまた、3Dモデルに強いガイダンスを与えるために、地上の真実で出力されるノイズスケジューラを再注入する2Dリペイント技術を適用している。
これは重み付けされた損失と共に、マスクされた領域の生成に対する長期的なコヒーレンスを保証します。
どちらのモデルも、小型DEMシミュレーションから抽出した2次元占有格子で訓練し、サンプルサイズに対して計算時間の線形スケーリングを実現する。
定量的には、3時間DEMシミュレーションに相当する1.2mの弾道線合成が20秒で完了した。
生成されたボクセルグリッドは、DEM互換のためにグラニュラルジオメトリを抽出するために後処理も可能で、物理的に整合性があり、リアルタイムでスケーラブルなグラニュラーメディア合成を可能にする。
関連論文リスト
- EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - DSplats: 3D Generation by Denoising Splats-Based Multiview Diffusion Models [67.50989119438508]
本稿では,ガウスをベースとしたレコンストラクタを用いて,リアルな3Dアセットを生成することで,マルチビュー画像を直接認識するDSplatを紹介した。
実験の結果,DSplatsは高品質で空間的に一貫した出力を生成できるだけでなく,単一画像から3次元再構成への新たな標準も設定できることがわかった。
論文 参考訳(メタデータ) (2024-12-11T07:32:17Z) - Towards Realistic Example-based Modeling via 3D Gaussian Stitching [31.710954782769377]
サンプル誘導合成を用いた点ベース表現における複数のガウス場を組み合わせた例に基づくモデリング手法を提案する。
具体的には、構成について、複数のフィールドをリアルタイムでセグメント化し変換するGUIを作成し、意味論的に意味のあるモデルの合成を容易に得る。
テクスチャブレンディングでは、3DGSの離散的および不規則な性質のため、SeamlssNeRFがサポートされないため、直接勾配伝播を適用する。
論文 参考訳(メタデータ) (2024-08-28T11:13:27Z) - Sampling 3D Gaussian Scenes in Seconds with Latent Diffusion Models [3.9373541926236766]
本稿では,2次元画像データのみを用いて3次元シーン上での潜時拡散モデルを提案する。
我々は,スクラッチからでもスパースインプットビューからでも,わずか0.2秒で3Dシーンを生成することができることを示す。
論文 参考訳(メタデータ) (2024-06-18T23:14:29Z) - Tetrahedron Splatting for 3D Generation [39.24591650300784]
Tetrahedron Splatting (TeT-Splatting) は最適化時の容易な収束、正確なメッシュ抽出、リアルタイムレンダリングをサポートする。
メッシュ抽出なしで表現をトレーニングできるため、最適化プロセスの収束が容易になります。
論文 参考訳(メタデータ) (2024-06-03T17:56:36Z) - MeshXL: Neural Coordinate Field for Generative 3D Foundation Models [51.1972329762843]
本稿では,現代の大規模言語モデルを用いた3次元メッシュ生成のプロセスに対処する,事前学習型自己回帰モデルの生成ファミリを提案する。
MeshXLは高品質な3Dメッシュを生成することができ、さまざまなダウンストリームアプリケーションの基盤モデルとしても機能する。
論文 参考訳(メタデータ) (2024-05-31T14:35:35Z) - MeshDiffusion: Score-based Generative 3D Mesh Modeling [68.40770889259143]
本研究では,シーンの自動生成と物理シミュレーションのための現実的な3次元形状生成の課題について考察する。
メッシュのグラフ構造を利用して、3Dメッシュを生成するのにシンプルだが非常に効果的な生成モデリング手法を用いる。
具体的には、変形可能な四面体格子でメッシュを表現し、この直接パラメトリゼーション上で拡散モデルを訓練する。
論文 参考訳(メタデータ) (2023-03-14T17:59:01Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。