論文の概要: BuildingBRep-11K: Precise Multi-Storey B-Rep Building Solids with Rich Layout Metadata
- arxiv url: http://arxiv.org/abs/2506.15718v1
- Date: Tue, 03 Jun 2025 03:44:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-29 09:28:14.790654
- Title: BuildingBRep-11K: Precise Multi-Storey B-Rep Building Solids with Rich Layout Metadata
- Title(参考訳): BuildingBRep-11K: リッチレイアウトメタデータを用いた高精度多層B-Repビルディングソリッド
- Authors: Yu Guo, Hongji Fang, Tianyu Fang, Zhe Cui,
- Abstract要約: ビルディングブレープ11Kは、11,978棟(2-10階)の多層建築物(約10GB)のコレクションである。
全てのサンプルは幾何学的に正確なB-rep固体で覆われた床、壁、スラブ、規則に基づく開口で構成されている。
データセットの学習性を検証するために、2つの軽量なPointNetベースラインをトレーニングしました。
- 参考スコア(独自算出の注目度): 5.436963837926521
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the rise of artificial intelligence, the automatic generation of building-scale 3-D objects has become an active research topic, yet training such models still demands large, clean and richly annotated datasets. We introduce BuildingBRep-11K, a collection of 11 978 multi-storey (2-10 floors) buildings (about 10 GB) produced by a shape-grammar-driven pipeline that encodes established building-design principles. Every sample consists of a geometrically exact B-rep solid-covering floors, walls, slabs and rule-based openings-together with a fast-loading .npy metadata file that records detailed per-floor parameters. The generator incorporates constraints on spatial scale, daylight optimisation and interior layout, and the resulting objects pass multi-stage filters that remove Boolean failures, undersized rooms and extreme aspect ratios, ensuring compliance with architectural standards. To verify the dataset's learnability we trained two lightweight PointNet baselines. (i) Multi-attribute regression. A single encoder predicts storey count, total rooms, per-storey vector and mean room area from a 4 000-point cloud. On 100 unseen buildings it attains 0.37-storey MAE (87 \% within $\pm1$), 5.7-room MAE, and 3.2 m$^2$ MAE on mean area. (ii) Defect detection. With the same backbone we classify GOOD versus DEFECT; on a balanced 100-model set the network reaches 54 \% accuracy, recalling 82 \% of true defects at 53 \% precision (41 TP, 9 FN, 37 FP, 13 TN). These pilots show that BuildingBRep-11K is learnable yet non-trivial for both geometric regression and topological quality assessment
- Abstract(参考訳): 人工知能の台頭により、ビルスケールの3Dオブジェクトの自動生成が活発な研究トピックとなっているが、そのようなモデルのトレーニングには大きな、クリーンでリッチな注釈付きデータセットが必要である。
ビルディングブレープ11Kについて紹介する。ビルディングブレープ11Kは,ビルディング設計の原則を符号化した形状グラム駆動パイプラインによって製造された,11,978の多層建物(約10GB)のコレクションである。
それぞれのサンプルは、幾何学的に正確なB-rep固体で覆われた床、壁、スラブ、そして高速なローディングを持つ規則に基づく開口部で構成されている。
フロア毎のパラメータを詳細に記録するnpyメタデータファイル。
ジェネレータは空間スケール、日光の最適化、内部レイアウトの制約を組み込んでおり、結果として得られるオブジェクトは、ブールの故障、小さめの部屋、極端なアスペクト比を除去し、アーキテクチャ標準に準拠する多段フィルタを通過させる。
データセットの学習性を検証するために、2つの軽量なPointNetベースラインをトレーニングしました。
(i)多属性回帰
単一エンコーダは,4万点の雲から,格納数,総室数,記憶量ベクトル,平均室面積を予測する。
100の未確認の建物では、平均面積で0.37階建てのMAE (87 \% in $\pm1$)、5.7室のMAE、3.2m$^2$MAEに達する。
(ii)欠陥検出
同じバックボーンでGOODとDEFECTを分類し、バランスの取れた100モデルセットでは、ネットワークの精度は54 \%に達し、真の欠陥の82 \%を53 \%の精度(41 TP, 9 FN, 37 FP, 13 TN)でリコールする。
これらのパイロットは、BuildingBRep-11Kは幾何学的回帰と位相的品質評価の両方において学習可能であるが、非自明であることを示した。
関連論文リスト
- UniDet3D: Multi-dataset Indoor 3D Object Detection [4.718582862677851]
簡単な3Dオブジェクト検出モデルです
屋内データセットの混合で訓練され、様々な屋内環境で働くことができる。
論文 参考訳(メタデータ) (2024-09-06T12:40:19Z) - CMAB: A First National-Scale Multi-Attribute Building Dataset in China Derived from Open Source Data and GeoAI [1.3586572110652484]
本稿では,3,667の空間都市,2,900万の建物,213億平方メートルの屋上を対象とする全国規模のマルチアトリビュート・ビルディング・データセット(CMAB)について述べる。
何十億もの高解像度のGoogle Earth画像と6000万のストリートビュー画像(SVI)を使って、各ビルの屋上、高さ、機能、年齢、品質特性を生成しました。
我々のデータセットと結果は、グローバルSDGと都市計画にとって不可欠である。
論文 参考訳(メタデータ) (2024-08-12T02:09:25Z) - StructLM: Towards Building Generalist Models for Structured Knowledge Grounding [49.10029030628653]
大規模言語モデル(LLM)では、最先端(SoTA)モデルの背後にある構造化データラグを平均35%処理できる。
私たちは、MistralとCodeLlamaモデルファミリに基づいたStructLMと呼ばれる一連のモデルをトレーニングします。
我々のStructLMシリーズは、評価された18のデータセットのうち16のタスク固有モデルを超え、8つのSKGタスクに新しいSoTAパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-02-26T15:47:01Z) - CabiNet: Scaling Neural Collision Detection for Object Rearrangement
with Procedural Scene Generation [54.68738348071891]
私たちはまず、さまざまな日常環境において、650万以上の散らばったシーン(前よりも桁違いに多い)を生成します。
このデータから合成部分点雲をレンダリングし、それをCabiNetモデルアーキテクチャのトレーニングに使用します。
CabiNetは、オブジェクトとシーンポイントの雲を受け入れる衝突モデルである。
論文 参考訳(メタデータ) (2023-04-18T21:09:55Z) - Holistic Parameteric Reconstruction of Building Models from Point Clouds [9.93322840476651]
本研究では,1つの建物全体の点雲を同時に考慮した総合的パラメトリック再構築手法を提案する。
まず、よく設計されたディープニューラルネットワークを使用して、所定のビルディングポイントクラウド内のプリミティブを識別します。
次に、セグメント化されたプリミティブのパラメータを同時に決定するために、全体最適化戦略を導入する。
総合的な再現の質は、点表面距離0.08メートル、入力されたLiDAR点の0.7倍のRMSEである。
論文 参考訳(メタデータ) (2020-05-19T05:42:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。