論文の概要: LoD Sketch Extraction from Architectural Models Using Generative AI: Dataset Construction for Multi-Level Architectural Design Generation
- arxiv url: http://arxiv.org/abs/2601.17095v1
- Date: Fri, 23 Jan 2026 12:56:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.227719
- Title: LoD Sketch Extraction from Architectural Models Using Generative AI: Dataset Construction for Multi-Level Architectural Design Generation
- Title(参考訳): 生成AIを用いたアーキテクチャモデルからのLoDスケッチ抽出:マルチレベルアーキテクチャ設計生成のためのデータセット構築
- Authors: Xusheng Du, Athiwat Kongkaeo, Ye Zhang, Haoran Xie,
- Abstract要約: 生成AIモデルを用いた自動LoDスケッチ抽出フレームワークを提案する。
提案フレームワークは,コンピュータビジョン技術と生成AI手法を統合し,プログレッシブ抽出パイプラインを確立する。
実験により, この手法はLoDレベルの強い幾何整合性を維持していることが示された。
- 参考スコア(独自算出の注目度): 8.429059537101894
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For architectural design, representation across multiple Levels of Details (LoD) is essential for achieving a smooth transition from conceptual massing to detailed modeling. However, traditional LoD modeling processes rely on manual operations that are time-consuming, labor-intensive, and prone to geometric inconsistencies. While the rapid advancement of generative artificial intelligence (AI) has opened new possibilities for generating multi-level architectural models from sketch inputs, its application remains limited by the lack of high-quality paired LoD training data. To address this issue, we propose an automatic LoD sketch extraction framework using generative AI models, which progressively simplifies high-detail architectural models to automatically generate geometrically consistent and hierarchically coherent multi-LoD representations. The proposed framework integrates computer vision techniques with generative AI methods to establish a progressive extraction pipeline that transitions from detailed representations to volumetric abstractions. Experimental results demonstrate that the method maintains strong geometric consistency across LoD levels, achieving SSIM values of 0.7319 and 0.7532 for the transitions from LoD3 to LoD2 and from LoD2 to LoD1, respectively, with corresponding normalized Hausdorff distances of 25.1% and 61.0% of the image diagonal, reflecting controlled geometric deviation during abstraction. These results verify that the proposed framework effectively preserves global structure while achieving progressive semantic simplification across different LoD levels, providing reliable data and technical support for AI-driven multi-level architectural generation and hierarchical modeling.
- Abstract(参考訳): アーキテクチャ設計において、複数のレベル・オブ・詳細(LoD)をまたいだ表現は、概念的なマッサージから詳細なモデリングへのスムーズな移行を実現するために不可欠である。
しかし、従来のLoDモデリングプロセスは、時間を要する、労働集約的な手作業に依存しており、幾何学的に矛盾する傾向がある。
生成人工知能(AI)の急速な進歩は、スケッチ入力からマルチレベルアーキテクチャモデルを生成する新たな可能性を開く一方で、高品質なペアのLoDトレーニングデータがないため、その応用は制限されている。
この問題に対処するために,生成AIモデルを用いた自動LoDスケッチ抽出フレームワークを提案する。
提案フレームワークは、コンピュータビジョン技術と生成AI手法を統合して、詳細な表現からボリューム抽象へ移行するプログレッシブ抽出パイプラインを確立する。
実験結果から,LoD3 から LoD2 への遷移と LoD2 から LoD1 への遷移に対して,SSIM 値 0.7319 と 0.7532 をそれぞれ0.7332 とし,画像対角線の25.1% と 61.0% の正規化Hausdorff 距離を補正した。
これらの結果は,AI駆動型多層アーキテクチャ生成と階層的モデリングのための信頼性の高いデータと技術サポートを提供するとともに,グローバルな構造を効果的に保ちつつ,さまざまなLODレベルにわたるプログレッシブセマンティックな単純化を実現していることを示す。
関連論文リスト
- BladeSDF : Unconditional and Conditional Generative Modeling of Representative Blade Geometries Using Signed Distance Functions [4.188806282965805]
本稿では,DeepSDFを用いたタービン翼形状のドメイン固有の暗黙的生成フレームワークを提案する。
制約、目的、パフォーマンスのメトリクスを統合することで、このアプローチは従来の2Dガイド付きまたは制約なしの3Dパイプラインを超えて前進する。
論文 参考訳(メタデータ) (2026-01-19T23:02:33Z) - Scaling Up Occupancy-centric Driving Scene Generation: Dataset and Method [54.461213497603154]
作業中心の手法は、最近、フレームとモダリティをまたいだ一貫した条件付けを提供することで、最先端の結果を得た。
Nuplan-Occは、広く使われているNuplanベンチマークから構築された、これまでで最大の占有率データセットである。
高品質な占有、多視点ビデオ、LiDAR点雲を共同で合成する統合フレームワークを開発した。
論文 参考訳(メタデータ) (2025-10-27T03:52:45Z) - EfficientDepth: A Fast and Detail-Preserving Monocular Depth Estimation Model [1.4525559282354221]
我々は、トランスフォーマーアーキテクチャと軽量畳み込みデコーダを組み合わせた、EfficientDepthと呼ばれる新しいMDEシステムを導入する。
我々は,ハイパフォーマンスなMDE法を用いて,ラベル付き合成画像と実画像と,擬似ラベル付き実画像の組み合わせでモデルを訓練する。
一般的に使用される目的に加えて,LPIPSに基づく損失関数を導入し,ネットワークが詳細な深度マップを作成することを奨励する。
論文 参考訳(メタデータ) (2025-09-26T16:05:43Z) - Step1X-3D: Towards High-Fidelity and Controllable Generation of Textured 3D Assets [90.99212668875971]
Step1X-3Dは、データの不足、アルゴリズムの制限、エコシステムの断片化といった課題に対処するオープンフレームワークである。
拡散型テクスチャ合成モジュールとハイブリッドVAE-DiTジオメトリジェネレータを組み合わせた2段階の3Dネイティブアーキテクチャを提案する。
ベンチマークの結果は、既存のオープンソースメソッドを超える最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-05-12T16:56:30Z) - HiPART: Hierarchical Pose AutoRegressive Transformer for Occluded 3D Human Pose Estimation [61.32714172038278]
そこで本稿では, 階層型自動回帰変換器 (HiPART) と呼ばれる新しい2段階の縮退法を提案し, 元のスパース2Dポーズから2次元の高密度ポーズを生成する。
具体的には,高密度な2次元ポーズを階層的なトークンに量子化するマルチスケールスケルトントークン化モジュールを開発し,トークン接続を強化するスケルトン対応アライメントを提案する。
2D-to-3Dリフトの入力として生成された階層的ポーズにより,提案手法は隠蔽シナリオの強い堅牢性を示し,単一フレームベース3Dにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2025-03-30T06:15:36Z) - Multi-View Depth Consistent Image Generation Using Generative AI Models: Application on Architectural Design of University Buildings [20.569648863933285]
生成AIモデルを用いた新しい3段階一貫した画像生成フレームワークを提案する。
バックボーンとしてControlNetを使用し、アーキテクチャ靴箱モデルのマルチビュー入力に対応するように最適化する。
実験により,提案フレームワークは,一貫したスタイルと構造コヒーレンスを持つマルチビューアーキテクチャ画像を生成することができることを示した。
論文 参考訳(メタデータ) (2025-03-05T00:16:09Z) - Deep Discrete Encoders: Identifiable Deep Generative Models for Rich Data with Discrete Latent Layers [13.545948734057268]
本稿では、DDE(Deep Discrete EMs)と呼ばれる、離散遅延層を持つリッチデータ型に対する解釈可能な深層生成モデルを提案する。
理論的には、DDEの透過的識別可能性条件は、潜伏層が深くなるにつれて徐々に小さくなる。
論文 参考訳(メタデータ) (2025-01-02T18:56:23Z) - ArchComplete: Autoregressive 3D Architectural Design Generation with Hierarchical Diffusion-Based Upsampling [0.0]
ArchCompleteはベクトル量子化モデルからなる2段階のボクセルベースの3D生成パイプラインである。
パイプラインのキーとなるのは、(i) 2.5Dの知覚的損失とともに最適化された、ローカルなパッチ埋め込みのコンテキスト的にリッチなコードブックを学習することです。
ArchCompleteは643ドルという解像度で自動回帰的にモデルを生成し、それを5123ドルまで改良する。
論文 参考訳(メタデータ) (2024-12-23T20:13:27Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - Learning Versatile 3D Shape Generation with Improved AR Models [91.87115744375052]
自己回帰(AR)モデルはグリッド空間の関節分布をモデル化することにより2次元画像生成において印象的な結果を得た。
本稿では3次元形状生成のための改良された自己回帰モデル(ImAM)を提案する。
論文 参考訳(メタデータ) (2023-03-26T12:03:18Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。