論文の概要: HRHD-HK: A benchmark dataset of high-rise and high-density urban scenes
for 3D semantic segmentation of photogrammetric point clouds
- arxiv url: http://arxiv.org/abs/2307.07976v1
- Date: Sun, 16 Jul 2023 07:57:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 16:20:55.827879
- Title: HRHD-HK: A benchmark dataset of high-rise and high-density urban scenes
for 3D semantic segmentation of photogrammetric point clouds
- Title(参考訳): hrhd-hk:写真測点雲の3次元セマンティクスセグメンテーションのための高層・高密度都市シーンのベンチマークデータセット
- Authors: Maosu Li, Yijie Wu, Anthony G.O. Yeh, Fan Xue
- Abstract要約: 本稿では,香港(HRHD-HK)の高層都市点雲,すなわち高層・高密度都市景観のベンチマークデータセットを提案する。
150のタイルに配置されたHRHD-HKには、さまざまな都市環境から2億2300万のカラフルな3Dポイントが含まれています。
本稿では,HRHD-HKデータセット上での8つの一般的なセマンティックセマンティックセマンティクス手法を包括的に評価する。
- 参考スコア(独自算出の注目度): 0.7646713951724012
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Many existing 3D semantic segmentation methods, deep learning in computer
vision notably, claimed to achieve desired results on urban point clouds, in
which the city objects are too many and diverse for people to judge
qualitatively. Thus, it is significant to assess these methods quantitatively
in diversified real-world urban scenes, encompassing high-rise, low-rise,
high-density, and low-density urban areas. However, existing public benchmark
datasets primarily represent low-rise scenes from European cities and cannot
assess the methods comprehensively. This paper presents a benchmark dataset of
high-rise urban point clouds, namely High-Rise, High-Density urban scenes of
Hong Kong (HRHD-HK), which has been vacant for a long time. HRHD-HK arranged in
150 tiles contains 273 million colorful photogrammetric 3D points from diverse
urban settings. The semantic labels of HRHD-HK include building, vegetation,
road, waterbody, facility, terrain, and vehicle. To the best of our knowledge,
HRHD-HK is the first photogrammetric dataset that focuses on HRHD urban areas.
This paper also comprehensively evaluates eight popular semantic segmentation
methods on the HRHD-HK dataset. Experimental results confirmed plenty of room
for enhancing the current 3D semantic segmentation of point clouds, especially
for city objects with small volumes. Our dataset is publicly available at:
https://github.com/LuZaiJiaoXiaL/HRHD-HK.
- Abstract(参考訳): 既存の3dセマンティクスセグメンテーション手法の多くは、特にコンピュータビジョンにおけるディープラーニングであり、都市オブジェクトが多すぎて、人々が質的に判断できないような、都市的ポイントクラウドで望ましい結果を達成すると主張した。
したがって,高層,低層,高密度,低密度の都市部を包含する都市空間の多様化において,これらの手法を定量的に評価することが重要である。
しかしながら、既存の公開ベンチマークデータセットは、主にヨーロッパの都市からの低層シーンを表しており、その手法を包括的に評価することはできない。
本稿では,香港の高層,高密度都市景観(hrhd-hk)の高層都市点雲に関するベンチマークデータセットを提案する。
hrhd-hkは150個のタイルに配置され、多様な都市環境から2億7300万のカラーフォトグラム3dポイントを含んでいる。
HRHD-HKのセマンティックラベルには、建物、植生、道路、水域、施設、地形、車両が含まれる。
我々の知る限り、HRHD-HKはHRHD都市圏に焦点を当てた最初のフォトグラムデータセットである。
本稿では,HRHD-HKデータセット上での8つの一般的なセマンティックセマンティックセマンティクス手法を包括的に評価する。
実験により,現在の点雲の3次元意味セグメンテーション,特に体積の少ない都市対象物について,十分な空間が確認された。
私たちのデータセットは、https://github.com/LuZaiJiaoXiaL/HRHD-HK.comで公開されています。
関連論文リスト
- 3D Question Answering for City Scene Understanding [12.433903847890322]
3Dマルチモーダル質問応答(MQA)は,知的エージェントが周囲を3D環境下で理解できるようにすることによって,シーン理解において重要な役割を担っている。
都市レベルのシーン理解のための3D MQAデータセットCity-3DQAを提案する。
新しいベンチマークを報告し,提案したSg-CityUはCity-3DQAの異なる設定で63.94 %と63.76 %の精度を達成する。
論文 参考訳(メタデータ) (2024-07-24T16:22:27Z) - HUGS: Holistic Urban 3D Scene Understanding via Gaussian Splatting [53.6394928681237]
RGB画像に基づく都市景観の全体的理解は、難しいが重要な問題である。
我々の主な考え方は、静的な3Dガウスと動的なガウスの組合せを用いた幾何学、外観、意味論、運動の合同最適化である。
提案手法は,2次元および3次元のセマンティック情報を高精度に生成し,新たな視点をリアルタイムに描画する機能を提供する。
論文 参考訳(メタデータ) (2024-03-19T13:39:05Z) - CityRefer: Geography-aware 3D Visual Grounding Dataset on City-scale
Point Cloud Data [15.526523262690965]
都市レベルの視覚的接地のためのCityReferデータセットについて紹介する。
データセットは、SensatUrbanの都市シーンに現れる3Dオブジェクトの35kの自然言語記述と、OpenStreetMapと同期する5kのランドマークラベルで構成されている。
論文 参考訳(メタデータ) (2023-10-28T18:05:32Z) - Cross-City Matters: A Multimodal Remote Sensing Benchmark Dataset for
Cross-City Semantic Segmentation using High-Resolution Domain Adaptation
Networks [82.82866901799565]
我々は,都市間セマンティックセマンティックセグメンテーションタスクの研究を目的とした,新しいマルチモーダルリモートセンシングベンチマークデータセット(ハイパースペクトル,マルチスペクトル,SARを含む)を構築した。
単一都市に留まらず,多都市環境からAIモデルの一般化能力を促進するため,高解像度なドメイン適応ネットワークであるHighDANを提案する。
高DANは, 並列高分解能融合方式で, 都市景観の空間的トポロジカルな構造を良好に維持することができる。
論文 参考訳(メタデータ) (2023-09-26T23:55:39Z) - SensatUrban: Learning Semantics from Urban-Scale Photogrammetric Point
Clouds [52.624157840253204]
センサットウルバン(SensatUrban)は、イギリスの3都市から収集された7.6km2の30億点近くからなる、都市規模のUAV測光点クラウドデータセットである。
データセットの各ポイントは、粒度の細かいセマンティックアノテーションでラベル付けされ、その結果、既存の最大のフォトグラムポイントクラウドデータセットの3倍の大きさのデータセットが生成される。
論文 参考訳(メタデータ) (2022-01-12T14:48:11Z) - Semantic Segmentation on Swiss3DCities: A Benchmark Study on Aerial
Photogrammetric 3D Pointcloud Dataset [67.44497676652173]
スイスの3つの都市から採取された総面積2.7 km2$の屋外3Dポイントクラウドデータセットを紹介した。
データセットは、ポイントごとのラベルによるセマンティックセグメンテーションのために手動でアノテートされ、高解像度カメラを備えたマルチローターによって取得された画像のフォトグラムを用いて構築される。
論文 参考訳(メタデータ) (2020-12-23T21:48:47Z) - Towards Semantic Segmentation of Urban-Scale 3D Point Clouds: A Dataset,
Benchmarks and Challenges [52.624157840253204]
我々は、30億点近い注釈付きポイントを持つ都市規模の測光点クラウドデータセットを提示する。
私たちのデータセットは、イギリスの3つの都市からなり、都市の景観の約7.6km2をカバーしています。
我々は,データセット上での最先端アルゴリズムの性能を評価し,その結果を包括的に分析する。
論文 参考訳(メタデータ) (2020-09-07T14:47:07Z) - HDNet: Human Depth Estimation for Multi-Person Camera-Space Localization [83.57863764231655]
本稿では,根の絶対的局所化のためのエンドツーエンドフレームワークであるHuman Depth Estimation Network (HDNet)を提案する。
関節間の特徴伝達に骨格ベースのグラフニューラルネットワーク(GNN)を用いる。
我々は,2つのベンチマークデータセットを用いて,ルートジョイントローカライゼーションとルート相対的な3次元ポーズ推定タスクについて,HDNetの評価を行った。
論文 参考訳(メタデータ) (2020-07-17T12:44:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。