論文の概要: UrbanBIS: a Large-scale Benchmark for Fine-grained Urban Building
Instance Segmentation
- arxiv url: http://arxiv.org/abs/2305.02627v1
- Date: Thu, 4 May 2023 08:01:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 16:28:31.724913
- Title: UrbanBIS: a Large-scale Benchmark for Fine-grained Urban Building
Instance Segmentation
- Title(参考訳): UrbanBIS: きめ細かい都市建物のインスタンスセグメンテーションのための大規模ベンチマーク
- Authors: Guoqing Yang, Fuyou Xue, Qi Zhang, Ke Xie, Chi-Wing Fu, Hui Huang
- Abstract要約: 都市BISは6つの実際の都市のシーンで構成され、25億点があり、面積は10.78平方キロメートルである。
UrbanBISは、建物、車両、植生、道路、橋など、豊富な都市オブジェクトに意味レベルのアノテーションを提供する。
UrbanBISは、きめ細かいサブカテゴリを導入した最初の3Dデータセットである。
- 参考スコア(独自算出の注目度): 50.52615875873055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the UrbanBIS benchmark for large-scale 3D urban understanding,
supporting practical urban-level semantic and building-level instance
segmentation. UrbanBIS comprises six real urban scenes, with 2.5 billion
points, covering a vast area of 10.78 square kilometers and 3,370 buildings,
captured by 113,346 views of aerial photogrammetry. Particularly, UrbanBIS
provides not only semantic-level annotations on a rich set of urban objects,
including buildings, vehicles, vegetation, roads, and bridges, but also
instance-level annotations on the buildings. Further, UrbanBIS is the first 3D
dataset that introduces fine-grained building sub-categories, considering a
wide variety of shapes for different building types. Besides, we propose B-Seg,
a building instance segmentation method to establish UrbanBIS. B-Seg adopts an
end-to-end framework with a simple yet effective strategy for handling
large-scale point clouds. Compared with mainstream methods, B-Seg achieves
better accuracy with faster inference speed on UrbanBIS. In addition to the
carefully-annotated point clouds, UrbanBIS provides high-resolution
aerial-acquisition photos and high-quality large-scale 3D reconstruction
models, which shall facilitate a wide range of studies such as multi-view
stereo, urban LOD generation, aerial path planning, autonomous navigation, road
network extraction, and so on, thus serving as an important platform for many
intelligent city applications.
- Abstract(参考訳): 本稿では,大規模3次元都市理解のためのurbanbisベンチマークを提案し,都市レベルの意味と建物レベルのインスタンスセグメンテーションを実践的に支援する。
都市BISは6つの実際の都市のシーンで構成され、25億点があり、10.78平方キロメートルの広大な面積と3,370の建物をカバーしている。
特に、UrbanBISは、建物、車両、植生、道路、橋など、豊富な都市オブジェクトに意味レベルのアノテーションを提供するだけでなく、建物のインスタンスレベルのアノテーションも提供する。
さらに、urbanbisは、さまざまな建物タイプの形状を考慮して、きめ細かい建物サブカテゴリを導入した最初の3dデータセットである。
さらに,UrbanBISを確立するためのビルディングインスタンスセグメンテーション手法であるB-Segを提案する。
B-Segは、大規模ポイントクラウドを扱うためのシンプルで効果的な戦略を備えたエンドツーエンドフレームワークを採用している。
主流手法と比較して、B-SegはUrbanBISで高速な推論速度で精度が向上する。
注意深い注意点の雲に加えて、urbanbisは高解像度の空中獲得写真と高品質の大規模3d復元モデルを提供し、マルチビューステレオ、アーバンロッド生成、空中経路計画、自律ナビゲーション、道路ネットワーク抽出など幅広い研究を促進させ、多くのインテリジェントな都市アプリケーションにとって重要なプラットフォームとなっている。
関連論文リスト
- COHO: Context-Sensitive City-Scale Hierarchical Urban Layout Generation [1.5745692520785073]
都市規模の都市レイアウト生成のための新しいグラフベースのマスク付きオートエンコーダ(GMAE)を提案する。
この方法は、属性付き建物、都市ブロック、コミュニティ、都市を統一的なグラフ構造に符号化する。
提案手法は,米国330都市における異質な都市スタイルにおける良好な現実性,意味的整合性,正当性を実現する。
論文 参考訳(メタデータ) (2024-07-16T00:49:53Z) - Urban Architect: Steerable 3D Urban Scene Generation with Layout Prior [43.14168074750301]
合成3Dレイアウト表現をテキストから3Dのパラダイムに導入し、さらに先行として機能する。
単純な幾何学的構造と明示的な配置関係を持つ意味的プリミティブの集合から構成される。
また,様々なシーン編集デモを行い,ステアブルな都市景観生成の力を示す。
論文 参考訳(メタデータ) (2024-04-10T06:41:30Z) - Urban Scene Diffusion through Semantic Occupancy Map [49.20779809250597]
UrbanDiffusionは、Bird's-Eye View (BEV)マップに条件付き3次元拡散モデルである。
我々のモデルは,潜在空間内のシーンレベルの構造の分布を学習する。
実世界の運転データセットをトレーニングした後、我々のモデルは多様な都市シーンを生成することができる。
論文 参考訳(メタデータ) (2024-03-18T11:54:35Z) - UrbanKGent: A Unified Large Language Model Agent Framework for Urban Knowledge Graph Construction [4.829677240798159]
都市知識グラフ構築(Urban KGC)は依然として手作業に大きく依存しており、その潜在的な進歩を妨げる。
本稿では,都市知識グラフ構築のための統合型大規模言語モデルエージェントフレームワークであるUrbanKGentを提案する。
論文 参考訳(メタデータ) (2024-02-10T01:50:19Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - Building3D: An Urban-Scale Dataset and Benchmarks for Learning Roof
Structures from Point Clouds [4.38301148531795]
既存の3Dモデリング用のデータセットは主に家具や車などの一般的なオブジェクトに焦点を当てている。
エストニアの16都市約998Km2をカバーする,160万以上の建物と対応する点雲,メッシュ,ワイヤフレームモデルからなる都市規模データセットを提案する。
実験結果から,ビルディング3Dには高いクラス内分散,データ不均衡,大規模ノイズといった課題があることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T21:38:57Z) - SensatUrban: Learning Semantics from Urban-Scale Photogrammetric Point
Clouds [52.624157840253204]
センサットウルバン(SensatUrban)は、イギリスの3都市から収集された7.6km2の30億点近くからなる、都市規模のUAV測光点クラウドデータセットである。
データセットの各ポイントは、粒度の細かいセマンティックアノテーションでラベル付けされ、その結果、既存の最大のフォトグラムポイントクラウドデータセットの3倍の大きさのデータセットが生成される。
論文 参考訳(メタデータ) (2022-01-12T14:48:11Z) - Semantic Segmentation on Swiss3DCities: A Benchmark Study on Aerial
Photogrammetric 3D Pointcloud Dataset [67.44497676652173]
スイスの3つの都市から採取された総面積2.7 km2$の屋外3Dポイントクラウドデータセットを紹介した。
データセットは、ポイントごとのラベルによるセマンティックセグメンテーションのために手動でアノテートされ、高解像度カメラを備えたマルチローターによって取得された画像のフォトグラムを用いて構築される。
論文 参考訳(メタデータ) (2020-12-23T21:48:47Z) - Towards Semantic Segmentation of Urban-Scale 3D Point Clouds: A Dataset,
Benchmarks and Challenges [52.624157840253204]
我々は、30億点近い注釈付きポイントを持つ都市規模の測光点クラウドデータセットを提示する。
私たちのデータセットは、イギリスの3つの都市からなり、都市の景観の約7.6km2をカバーしています。
我々は,データセット上での最先端アルゴリズムの性能を評価し,その結果を包括的に分析する。
論文 参考訳(メタデータ) (2020-09-07T14:47:07Z) - Deep Learning Guided Building Reconstruction from Satellite
Imagery-derived Point Clouds [39.36437891978871]
衛星画像から生成された点雲からモデル再構成を構築するための信頼性が高く効果的な手法を提案する。
具体的には、複雑で騒々しい場面で建築屋根の形状を区別するために、ディープラーニングのアプローチが採用されている。
大規模都市モデル生成の一般ニーズに対処する最初の取り組みとして、開発はオープンソースソフトウェアとして展開されている。
論文 参考訳(メタデータ) (2020-05-19T05:38:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。