論文の概要: ArchComplete: Autoregressive 3D Architectural Design Generation with Hierarchical Diffusion-Based Upsampling
- arxiv url: http://arxiv.org/abs/2412.17957v1
- Date: Mon, 23 Dec 2024 20:13:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:56:53.342752
- Title: ArchComplete: Autoregressive 3D Architectural Design Generation with Hierarchical Diffusion-Based Upsampling
- Title(参考訳): ArchComplete: 階層的拡散に基づくアップサンプリングによる自己回帰型3Dアーキテクチャ設計生成
- Authors: S. Rasoulzadeh, M. Bank, M. Wimmer, I. Kovacic, K. Schinegger, S. Rutzinger,
- Abstract要約: ArchCompleteは、密度の高いボクセルベースの3D生成パイプラインで、アーキテクチャのジオメトリとトポロジーの複雑さに対処するために開発された。
推定のために、パイプラインはまず643ドルという解像度でハウスモデルを自動回帰的に生成し、その後、ボクセルサイズが18textcm$という2563ドルという解像度に徐々に洗練する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: $\textit{ArchComplete}$ is a two-stage dense voxel-based 3D generative pipeline developed to tackle the high complexity in architectural geometries and topologies, assisting with ideation and geometric detailisation in the early design process. In stage 1, a $\textit{3D Voxel VQGAN}$ model is devised, whose composition is then modelled with an autoregressive transformer for generating coarse models. Subsequently, in stage 2, $\textit{Hierarchical Voxel Upsampling Networks}$ consisting of a set of 3D conditional denoising diffusion probabilistic models are defined to augment the coarse shapes with fine geometric details. The first stage is trained on a dataset of house models with fully modelled exteriors and interiors with a novel 2.5D perceptual loss to capture input complexities across multiple abstraction levels, while the second stage trains on randomly cropped local volumetric patches, requiring significantly less compute and memory. For inference, the pipeline first autoregressively generates house models at a resolution of $64^3$ and then progressively refines them to resolution of $256^3$ with voxel sizes as small as $18\text{cm}$. ArchComplete supports a range of interaction modes solving a variety of tasks, including interpolation, variation generation, unconditional synthesis, and two conditional synthesis tasks: shape completion and plan-drawing completion, as well as geometric detailisation. The results demonstrate notable improvements against state-of-the-art on established metrics.
- Abstract(参考訳): $\textit{ArchComplete}$は、2段階の高密度なボクセルベースの3D生成パイプラインで、アーキテクチャのジオメトリとトポロジーの複雑さに対処するために開発された。
ステージ1では、$\textit{3D Voxel VQGAN}$モデルが考案され、その構成は粗いモデルを生成する自己回帰変換器でモデル化される。
その後、ステージ 2 において、$\textit{Hierarchical Voxel Upsampling Networks}$ は、3次元条件付き拡散確率モデルの集合からなる。
第1ステージは、完全にモデル化された外装と内装を備えたハウスモデルのデータセットでトレーニングされ、新しい2.5Dパーセプティカル・ロスにより、複数の抽象化レベルにわたる入力複雑度をキャプチャし、第2ステージはランダムに収穫されたローカルボリュームパッチをトレーニングし、計算とメモリを著しく少なくする。
推論のために、パイプラインはまず64^3$の解像度でハウスモデルを自動回帰的に生成し、その後徐々に256^3$の解像度に洗練し、ボクセルサイズは18\text{cm}$まで小さくする。
ArchCompleteは、補間、変分生成、無条件合成、および2つの条件合成タスクを含む様々なタスク(形状完了と計画描画完了、および幾何学的詳細化)を解決する様々な相互作用モードをサポートしている。
その結果、確立されたメトリクスの最先端に対する顕著な改善が示された。
関連論文リスト
- RigAnything: Template-Free Autoregressive Rigging for Diverse 3D Assets [47.81216915952291]
本稿では,新しい自己回帰変換モデルであるRigAnythingを紹介する。
関節や骨格のトポロジを確率的に生成し、スキンの重量をテンプレートのない方法で割り当てることで、3Dアセットを準備できる。
RigAnythingは、ヒューマノイド、四足動物、海洋生物、昆虫など、さまざまな種類の物体で最先端のパフォーマンスを実証している。
論文 参考訳(メタデータ) (2025-02-13T18:59:13Z) - Factorized Implicit Global Convolution for Automotive Computational Fluid Dynamics Prediction [52.32698071488864]
非常に大きな3DメッシュのCFD問題を効率的に解く新しいアーキテクチャであるFactized Implicit Global Convolution (FIGConv)を提案する。
FIGConvは、既存の3DニューラルCFDモデルよりも大幅に改善された2次複雑性の$O(N2)$を達成する。
業界標準のAhmedボディデータセットと大規模DrivAerNetデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2025-02-06T18:57:57Z) - Structured 3D Latents for Scalable and Versatile 3D Generation [28.672494137267837]
汎用的で高品質な3Dアセット作成のための新しい3D生成手法を提案する。
基本となるのは、異なる出力フォーマットへのデコードを可能にする、構造化されたLATent表現である。
これは、疎人口の少ない3Dグリッドと、強力な視覚基盤モデルから抽出された濃密な多視点視覚特徴を統合することで実現される。
論文 参考訳(メタデータ) (2024-12-02T13:58:38Z) - GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - Outdoor Scene Extrapolation with Hierarchical Generative Cellular Automata [70.9375320609781]
我々は,自律走行車(AV)で多量に捕獲された大規模LiDARスキャンから微細な3次元形状を生成することを目指している。
本稿では,空間的にスケーラブルな3次元生成モデルである階層型生成セルオートマトン (hGCA) を提案する。
論文 参考訳(メタデータ) (2024-06-12T14:56:56Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - DiffComplete: Diffusion-based Generative 3D Shape Completion [114.43353365917015]
3次元レンジスキャンにおける形状完成のための拡散に基づく新しいアプローチを提案する。
私たちはリアリズム、マルチモダリティ、高忠実さのバランスを取ります。
DiffCompleteは2つの大規模3次元形状補完ベンチマークに新しいSOTA性能を設定する。
論文 参考訳(メタデータ) (2023-06-28T16:07:36Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - OctField: Hierarchical Implicit Functions for 3D Modeling [18.488778913029805]
我々は3次元曲面の学習可能な階層的暗黙表現であるOctoFieldを提案し、メモリと計算予算の少ない複雑な曲面の高精度符号化を可能にする。
この目的を達成するために、曲面占有率と部分幾何学の豊かさに応じて3次元空間を適応的に分割する階層的オクツリー構造を導入する。
論文 参考訳(メタデータ) (2021-11-01T16:29:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。