論文の概要: A Framework for Building Point Cloud Cleaning, Plane Detection and
Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2402.00692v1
- Date: Thu, 1 Feb 2024 15:50:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 14:48:44.368752
- Title: A Framework for Building Point Cloud Cleaning, Plane Detection and
Semantic Segmentation
- Title(参考訳): 点雲清掃, 平面検出, 意味セグメンテーション構築のためのフレームワーク
- Authors: Ilyass Abouelaziz, Youssef Mourchid
- Abstract要約: 私たちは、取得したポイントクラウドデータからアウトリーチを取り除くことに集中しています。
クリーニング処理の後、ロバストなRANSACパラダイムを用いて平面検出を行う。
結果として得られたセグメントは、建物のアーキテクチャ要素を表す正確で詳細なポイントクラウドを生成することができる。
- 参考スコア(独自算出の注目度): 0.5439020425818999
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents a framework to address the challenges involved in
building point cloud cleaning, plane detection, and semantic segmentation, with
the ultimate goal of enhancing building modeling. We focus in the cleaning
stage on removing outliers from the acquired point cloud data by employing an
adaptive threshold technique based on z-score measure. Following the cleaning
process, we perform plane detection using the robust RANSAC paradigm. The goal
is to carry out multiple plane segmentations, and to classify segments into
distinct categories, such as floors, ceilings, and walls. The resulting
segments can generate accurate and detailed point clouds representing the
building's architectural elements. Moreover, we address the problem of semantic
segmentation, which plays a vital role in the identification and classification
of different components within the building, such as walls, windows, doors,
roofs, and objects. Inspired by the PointNet architecture, we propose a deep
learning architecture for efficient semantic segmentation in buildings. The
results demonstrate the effectiveness of the proposed framework in handling
building modeling tasks, paving the way for improved accuracy and efficiency in
the field of building modelization.
- Abstract(参考訳): 本稿では,ビルディング・モデリングの究極の目標として,ポイント・クラウド・クリーニング,平面検出,セマンティクスセグメンテーションの課題に対処するためのフレームワークを提案する。
我々は,zスコア測度に基づく適応しきい値手法を用いて,取得した点雲データから外れ値を取り除くことに焦点を当てた。
洗浄処理に続いて,ロバストなransacパラダイムを用いて平面検出を行う。
目標は、複数の平面分割を実行し、セグメントを床、天井、壁といった異なるカテゴリに分類することである。
得られたセグメントは、建物のアーキテクチャ要素を表す正確で詳細なポイントクラウドを生成することができる。
さらに,壁,窓,ドア,屋根,オブジェクトなど,建物内の異なる構成要素の識別・分類において重要な役割を担うセマンティックセグメンテーション(セマンティックセグメンテーション)の問題にも対処する。
PointNetアーキテクチャに触発されて,建物内の効率的なセマンティックセグメンテーションのためのディープラーニングアーキテクチャを提案する。
提案手法は,建築モデリングの分野における精度と効率の向上を図り,建築モデリングタスクの処理におけるフレームワークの有効性を実証する。
関連論文リスト
- A Hybrid Semantic-Geometric Approach for Clutter-Resistant Floorplan
Generation from Building Point Clouds [2.0859227544921874]
本研究では,レーザ走査型ビルディングポイント雲からのクラッタ耐性フロアプラン生成のためのハイブリッドセマンティック・ジオメトリ手法を提案する。
提案手法は,精度,リコール,インターセクション・オーバー・ユニオン(IOU),ベティ誤差,ワープ誤差の計測値を用いて評価する。
論文 参考訳(メタデータ) (2023-05-15T20:08:43Z) - BuildMapper: A Fully Learnable Framework for Vectorized Building Contour
Extraction [3.862461804734488]
我々はBuildMapperという,エンドツーエンドで学習可能な最初のコントラスト抽出フレームワークを提案する。
BuildMapperは、人間がするのと同じように、直接かつ効率的にポリゴンを構築することができる。
マスク平均精度(AP)とバウンダリAPはセグメンテーションベースと輪郭ベースの両方の手法よりも高い結果が得られることを示す。
論文 参考訳(メタデータ) (2022-11-07T08:58:35Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - Learning Local Displacements for Point Cloud Completion [93.54286830844134]
本稿では,3次元点雲として表現された部分的スキャンからオブジェクトとセマンティックシーンを補完する手法を提案する。
アーキテクチャはエンコーダ-デコーダ構造内で連続的に使用される3つの新しいレイヤに依存している。
オブジェクトと屋内の両方のシーン完了タスクにおけるアーキテクチャの評価を行い、最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-30T18:31:37Z) - RICE: Refining Instance Masks in Cluttered Environments with Graph
Neural Networks [53.15260967235835]
本稿では,インスタンスマスクのグラフベース表現を利用して,そのような手法の出力を改良する新しいフレームワークを提案する。
我々は、セグメンテーションにスマートな摂動をサンプリングできるディープネットワークと、オブジェクト間の関係をエンコード可能なグラフニューラルネットワークを訓練し、セグメンテーションを評価する。
本稿では,本手法によって生成された不確実性推定を用いてマニピュレータを誘導し,乱れたシーンを効率的に理解するアプリケーションについて紹介する。
論文 参考訳(メタデータ) (2021-06-29T20:29:29Z) - DLA-Net: Learning Dual Local Attention Features for Semantic
Segmentation of Large-Scale Building Facade Point Clouds [14.485540292321257]
セマンティックセグメンテーションのための大規模なファサードポイントクラウドベンチマークデータセットを構築した。
本稿では,DLA(Dual Local Attention feature)と呼ばれる,DLA(Dual Local Attention feature)を学習可能なアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2021-06-01T10:39:11Z) - Robust Object Detection via Instance-Level Temporal Cycle Confusion [89.1027433760578]
物体検出器の分布外一般化を改善するための補助的自己監視タスクの有効性を検討する。
最大エントロピーの原理に触発されて,新しい自己監督タスクであるインスタンスレベル時間サイクル混乱(cycconf)を導入する。
それぞれのオブジェクトに対して、タスクは、ビデオ内の隣接するフレームで最も異なるオブジェクトの提案を見つけ、自己スーパービジョンのために自分自身にサイクルバックすることです。
論文 参考訳(メタデータ) (2021-04-16T21:35:08Z) - Machine-learned Regularization and Polygonization of Building
Segmentation Masks [19.467876013953894]
本稿では,建物セグメンテーションマスクの自動正規化と多角化のための機械学習に基づくアプローチを提案する。
画像を入力として、汎用的完全畳み込みネットワーク(FCN)を利用した分割マップの構築を最初に予測する。
生成的敵ネットワーク(GAN)は、それらをより現実的にするために、建築境界の正規化を行う。
論文 参考訳(メタデータ) (2020-07-24T15:38:35Z) - Improving Semantic Segmentation via Decoupled Body and Edge Supervision [89.57847958016981]
既存のセグメンテーションアプローチは、グローバルコンテキストをモデル化することでオブジェクトの内部の一貫性を改善すること、あるいはマルチスケールの特徴融合によって境界に沿ったオブジェクトの詳細を洗練することを目的としている。
本稿では,セマンティックセグメンテーションのための新しいパラダイムを提案する。
我々の洞察は、セマンティックセグメンテーションの魅力ある性能には、画像の高頻度と低頻度に対応するオブジェクトのテキストボディとテキストエッジを具体的にモデル化する必要があるということである。
さまざまなベースラインやバックボーンネットワークを備えた提案したフレームワークが,オブジェクト内部の一貫性とオブジェクト境界を向上させることを示す。
論文 参考訳(メタデータ) (2020-07-20T12:11:22Z) - Instance segmentation of buildings using keypoints [26.220921532554136]
本稿では,高分解能リモートセンシング画像におけるセグメンテーションを構築するための新しいインスタンスセグメンテーションネットワークを提案する。
検出されたキーポイントはその後、建物のセマンティック境界である閉ポリゴンとして再構成される。
我々のネットワークは、幾何学的詳細をよく保存できるボトムアップのインスタンスセグメンテーション手法である。
論文 参考訳(メタデータ) (2020-06-06T13:11:37Z) - Refined Plane Segmentation for Cuboid-Shaped Objects by Leveraging Edge
Detection [63.942632088208505]
本稿では,セグメント化された平面マスクを画像に検出されたエッジと整列するための後処理アルゴリズムを提案する。
これにより、立方体形状の物体に制限を加えながら、最先端のアプローチの精度を高めることができます。
論文 参考訳(メタデータ) (2020-03-28T18:51:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。