論文の概要: SIP: Site in Pieces- A Dataset of Disaggregated Construction-Phase 3D Scans for Semantic Segmentation and Scene Understanding
- arxiv url: http://arxiv.org/abs/2512.09062v1
- Date: Tue, 09 Dec 2025 19:25:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.294868
- Title: SIP: Site in Pieces- A Dataset of Disaggregated Construction-Phase 3D Scans for Semantic Segmentation and Scene Understanding
- Title(参考訳): SIP:Site in Pieces-A dataset of disaggregated construction-Phase 3D Scans for Semantic Segmentation and Scene Understanding
- Authors: Seongyong Kim, Yong Kwon Cho,
- Abstract要約: 本稿では,建設中のLiDAR取得の現実的な制約を反映したデータセットであるSIP, Site in Piecesを提案する。
SIPは、地上のLiDARスキャナーで捉えた屋内および屋外のシーンを提供し、建設環境に適した分類法を用いてポイントレベルで注釈を付ける。
- 参考スコア(独自算出の注目度): 0.8594140167290097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate 3D scene interpretation in active construction sites is essential for progress monitoring, safety assessment, and digital twin development. LiDAR is widely used in construction because it offers advantages over camera-based systems, performing reliably in cluttered and dynamically changing conditions. Yet most public datasets for 3D perception are derived from densely fused scans with uniform sampling and complete visibility, conditions that do not reflect real construction sites. Field data are often collected as isolated single-station LiDAR views, constrained by safety requirements, limited access, and ongoing operations. These factors lead to radial density decay, fragmented geometry, and view-dependent visibility-characteristics that remain underrepresented in existing datasets. This paper presents SIP, Site in Pieces, a dataset created to reflect the practical constraints of LiDAR acquisition during construction. SIP provides indoor and outdoor scenes captured with a terrestrial LiDAR scanner and annotated at the point level using a taxonomy tailored to construction environments: A. Built Environment, B. Construction Operations, and C. Site Surroundings. The dataset includes both structural components and slender temporary objects such as scaffolding, MEP piping, and scissor lifts, where sparsity caused by occlusion and fragmented geometry make segmentation particularly challenging. The scanning protocol, annotation workflow, and quality control procedures establish a consistent foundation for the dataset. SIP is openly available with a supporting Git repository, offering adaptable class configurations that streamline adoption within modern 3D deep learning frameworks. By providing field data that retain real-world sensing characteristics, SIP enables robust benchmarking and contributes to advancing construction-oriented 3D vision tasks.
- Abstract(参考訳): 建設現場における正確な3Dシーンの解釈は, 進捗監視, 安全性評価, デジタルツイン開発に不可欠である。
LiDARは、カメラベースのシステムよりも利点があり、乱雑で動的に変化する条件下で確実に機能するため、建設において広く使用されている。
しかし、3D知覚のためのほとんどの公開データセットは、実際の建設現場を反映しない、均一なサンプリングと完全な可視性を備えた密集したスキャンから導かれる。
フィールドデータは孤立した単一ステーションのLiDARビューとして収集され、安全要件、制限されたアクセス、進行中の操作によって制限される。
これらの要因は、放射密度の崩壊、断片化された幾何学、および既存のデータセットで表現されていないビュー依存の可視特性に繋がる。
本稿では,建設中のLiDAR取得の現実的な制約を反映したデータセットであるSIP, Site in Piecesを提案する。
SIPは、地上のLiDARスキャナーで捉えた屋内および屋外のシーンを提供し、A.構築環境、B.建設作業、C.サイト周辺といった建設環境に適した分類を用いて、ポイントレベルで注釈付けされている。
データセットには、構造コンポーネントとスキャフォールディング、MEP配管、シザーリフトのような細い一時的なオブジェクトの両方が含まれており、オクルージョンと断片化された幾何学によって引き起こされる空間は、セグメンテーションを特に困難にしている。
スキャニングプロトコル、アノテーションワークフロー、品質管理手順は、データセットの一貫性のある基盤を確立する。
SIPは、最新の3Dディープラーニングフレームワークでの採用を合理化するための、適応可能なクラス構成を提供するGitリポジトリを、オープンソースとして提供する。
実世界のセンシング特性を保持するフィールドデータを提供することで、SIPは堅牢なベンチマークを可能にし、建設指向の3Dビジョンタスクに寄与する。
関連論文リスト
- PLANA3R: Zero-shot Metric Planar 3D Reconstruction via Feed-Forward Planar Splatting [56.188624157291024]
提案するPLANA3Rは,提案しない2次元画像から平面3次元再構成を計測するためのポーズレスフレームワークである。
トレーニング中に3次元平面アノテーションを必要とする以前のフィードフォワード法とは異なり、PLANA3Rは明確な平面監督なしで平面3次元構造を学習する。
本研究は,複数の室内環境データセットに対するPLANA3Rの有効性を検証するとともに,領域外屋内環境への強力な一般化を実証する。
論文 参考訳(メタデータ) (2025-10-21T15:15:33Z) - Enhancing Construction Site Analysis and Understanding with 3D Segmentation [1.9662978733004601]
本稿では,2つの高度な3Dセグメンテーション手法であるSAMとMask3Dの屋外および屋内環境への応用を批判的に評価する。
論文 参考訳(メタデータ) (2025-08-08T00:57:39Z) - Collaborative Perceiver: Elevating Vision-based 3D Object Detection via Local Density-Aware Spatial Occupancy [7.570294108494611]
視覚に基づく鳥眼視(BEV)3次元物体検出は、自律運転において著しく進歩している。
既存の方法では、抽出した物体の特徴を分解して3次元のBEV表現を構築することが多い。
本研究では,空間表現のギャップを埋めるマルチタスク学習フレームワークであるCollaborative Perceiverを導入する。
論文 参考訳(メタデータ) (2025-07-28T21:56:43Z) - Spatial Understanding from Videos: Structured Prompts Meet Simulation Data [89.77871049500546]
本稿では,事前学習された視覚言語モデルにおける3次元空間推論を,アーキテクチャを変更することなく拡張するための統一的なフレームワークを提案する。
このフレームワークは、複雑なシーンと質問を解釈可能な推論ステップに分解する構造化プロンプト戦略であるSpatialMindと、多様な3Dシミュレーションシーンから構築されたスケーラブルな質問応答データセットであるScanForgeQAを組み合わせる。
論文 参考訳(メタデータ) (2025-06-04T07:36:33Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。