論文の概要: BuildingNet: Learning to Label 3D Buildings
- arxiv url: http://arxiv.org/abs/2110.04955v1
- Date: Mon, 11 Oct 2021 01:45:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 19:16:59.944822
- Title: BuildingNet: Learning to Label 3D Buildings
- Title(参考訳): BuildingNet: 3Dビルディングのラベル付けを学ぶ
- Authors: Pratheba Selvaraju, Mohamed Nabail, Marios Loizou, Maria Maslioukova,
Melinos Averkiou, Andreas Andreou, Siddhartha Chaudhuri, Evangelos
Kalogerakis
- Abstract要約: BuildingNet: (a)外装が一貫してラベル付けされている大規模な3Dビルディングモデル、(b)幾何学的プリミティブの分析と構造的関係をビルディングにラベル付けするニューラルネットワーク。
データセットは、家、教会、高層ビル、市役所、城などのカテゴリをカバーしている。
- 参考スコア(独自算出の注目度): 19.641000866952815
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce BuildingNet: (a) a large-scale dataset of 3D building models
whose exteriors are consistently labeled, (b) a graph neural network that
labels building meshes by analyzing spatial and structural relations of their
geometric primitives. To create our dataset, we used crowdsourcing combined
with expert guidance, resulting in 513K annotated mesh primitives, grouped into
292K semantic part components across 2K building models. The dataset covers
several building categories, such as houses, churches, skyscrapers, town halls,
libraries, and castles. We include a benchmark for evaluating mesh and point
cloud labeling. Buildings have more challenging structural complexity compared
to objects in existing benchmarks (e.g., ShapeNet, PartNet), thus, we hope that
our dataset can nurture the development of algorithms that are able to cope
with such large-scale geometric data for both vision and graphics tasks e.g.,
3D semantic segmentation, part-based generative models, correspondences,
texturing, and analysis of point cloud data acquired from real-world buildings.
Finally, we show that our mesh-based graph neural network significantly
improves performance over several baselines for labeling 3D meshes.
- Abstract(参考訳): BuildingNetを紹介します。
(a)外部が一貫してラベル付けされた3次元建築模型の大規模データセット
b) 幾何学的プリミティブの空間的および構造的関係を分析してメッシュを構築するグラフニューラルネットワーク。
データセットの作成には、クラウドソーシングとエキスパートガイダンスを組み合わせることで、513kのアノテーション付きメッシュプリミティブを2kビルディングモデルで292kセマンティクスパートにグループ化しました。
データセットは、家、教会、高層ビル、町役場、図書館、城など、いくつかの建築カテゴリをカバーしている。
メッシュとポイントクラウドラベリングを評価するベンチマークも含んでいます。
ビルディングは、既存のベンチマーク(shapenet、partnetなど)のオブジェクトに比べて、より難しい構造的複雑性を持つため、私たちのデータセットは、ビジョンとグラフィックのタスク(例えば、3dセマンティクスセグメンテーション、パートベース生成モデル、対応、テキスト作成、実世界のビルディングから取得したポイントクラウドデータの解析など)の両方に対して、このような大規模な幾何学データに対応可能なアルゴリズムの開発を育成できることを願っています。
最後に,メッシュベースのグラフニューラルネットワークが3dメッシュのラベル付けにおいて,複数のベースラインのパフォーマンスを大幅に向上させることを示した。
関連論文リスト
- ARKit LabelMaker: A New Scale for Indoor 3D Scene Understanding [51.509115746992165]
我々はARKit LabelMakerを紹介した。これは、密集したセマンティックアノテーションを備えた、最初の大規模で現実世界の3Dデータセットである。
また,3次元セマンティックセグメンテーションモデルを用いて,ScanNetおよびScanNet200データセットの最先端性能を推し進める。
論文 参考訳(メタデータ) (2024-10-17T14:44:35Z) - ARCH2S: Dataset, Benchmark and Challenges for Learning Exterior Architectural Structures from Point Clouds [0.0]
本稿では,セマンティックセグメンテーションのためのセマンティックモデルデータセットとベンチマークを提案する。
現実世界の建物の4つの異なる建築目的と、香港のオープンな建築景観を特徴としている。
論文 参考訳(メタデータ) (2024-06-03T14:02:23Z) - AutoSynth: Learning to Generate 3D Training Data for Object Point Cloud
Registration [69.21282992341007]
Auto Synthは、ポイントクラウド登録のための3Dトレーニングデータを自動的に生成する。
私たちはポイントクラウド登録ネットワークをもっと小さなサロゲートネットワークに置き換え、4056.43$のスピードアップを実現しました。
TUD-L,LINEMOD,Occluded-LINEMODに関する我々の研究結果は,検索データセットでトレーニングされたニューラルネットワークが,広く使用されているModelNet40データセットでトレーニングされたニューラルネットワークよりも一貫してパフォーマンスが向上していることを示す。
論文 参考訳(メタデータ) (2023-09-20T09:29:44Z) - Building3D: An Urban-Scale Dataset and Benchmarks for Learning Roof
Structures from Point Clouds [4.38301148531795]
既存の3Dモデリング用のデータセットは主に家具や車などの一般的なオブジェクトに焦点を当てている。
エストニアの16都市約998Km2をカバーする,160万以上の建物と対応する点雲,メッシュ,ワイヤフレームモデルからなる都市規模データセットを提案する。
実験結果から,ビルディング3Dには高いクラス内分散,データ不均衡,大規模ノイズといった課題があることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T21:38:57Z) - Elevation Estimation-Driven Building 3D Reconstruction from Single-View
Remote Sensing Imagery [20.001807614214922]
リモートセンシング画像からの3D再構築は、スマートシティやフォトグラムなどの分野に幅広い応用がある。
入力単視点リモートセンシング画像から3次元ビルディングモデルを再構築するための効率的なDSM推定駆動再構築フレームワーク(Building3D)を提案する。
我々のビル3Dは高度予測のためのSFFDEネットワークに根ざし、マスク構築のためのビル抽出ネットワークと同期し、点雲再構成、表面再構成(シティGMLモデル再構成)を順次実施する。
論文 参考訳(メタデータ) (2023-01-11T17:20:30Z) - FoldingNet Autoencoder model to create a geospatial grouping of CityGML
building dataset [0.0]
本研究では、3DオートエンコーダであるFoldingNetを用いて、LoD 2 CityGMLデータセットから各建物の潜在表現を生成する。
埋め込みの有効性は,データセット再構成,潜時拡散可視化,階層クラスタリング手法によって分析される。
建物の地理的グループ化を反復的に見つけるために地理空間モデルを作成する。
論文 参考訳(メタデータ) (2022-12-28T17:16:23Z) - SensatUrban: Learning Semantics from Urban-Scale Photogrammetric Point
Clouds [52.624157840253204]
センサットウルバン(SensatUrban)は、イギリスの3都市から収集された7.6km2の30億点近くからなる、都市規模のUAV測光点クラウドデータセットである。
データセットの各ポイントは、粒度の細かいセマンティックアノテーションでラベル付けされ、その結果、既存の最大のフォトグラムポイントクラウドデータセットの3倍の大きさのデータセットが生成される。
論文 参考訳(メタデータ) (2022-01-12T14:48:11Z) - Synthetic 3D Data Generation Pipeline for Geometric Deep Learning in
Architecture [6.383666639192481]
我々は、任意の量の3Dデータと関連する2Dおよび3Dアノテーションを生成する合成データ生成パイプラインを作成する。
さまざまなアノテーション、生成されたビルディングとデータセットパラメータをカスタマイズする柔軟性により、このフレームワークは複数のディープラーニングタスクに適している。
すべてのコードとデータは公開されています。
論文 参考訳(メタデータ) (2021-04-26T13:32:03Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Semantic Segmentation on Swiss3DCities: A Benchmark Study on Aerial
Photogrammetric 3D Pointcloud Dataset [67.44497676652173]
スイスの3つの都市から採取された総面積2.7 km2$の屋外3Dポイントクラウドデータセットを紹介した。
データセットは、ポイントごとのラベルによるセマンティックセグメンテーションのために手動でアノテートされ、高解像度カメラを備えたマルチローターによって取得された画像のフォトグラムを用いて構築される。
論文 参考訳(メタデータ) (2020-12-23T21:48:47Z) - Towards Semantic Segmentation of Urban-Scale 3D Point Clouds: A Dataset,
Benchmarks and Challenges [52.624157840253204]
我々は、30億点近い注釈付きポイントを持つ都市規模の測光点クラウドデータセットを提示する。
私たちのデータセットは、イギリスの3つの都市からなり、都市の景観の約7.6km2をカバーしています。
我々は,データセット上での最先端アルゴリズムの性能を評価し,その結果を包括的に分析する。
論文 参考訳(メタデータ) (2020-09-07T14:47:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。