論文の概要: Structured Semantic 3D Reconstruction (S23DR) Challenge 2025 -- Winning solution
- arxiv url: http://arxiv.org/abs/2506.16421v1
- Date: Thu, 19 Jun 2025 15:56:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.153307
- Title: Structured Semantic 3D Reconstruction (S23DR) Challenge 2025 -- Winning solution
- Title(参考訳): 構造化セマンティック3次元再構成(S23DR)チャレンジ2025 勝利解
- Authors: Jan Skvrna, Lukas Neumann,
- Abstract要約: 本稿では,S23DRチャレンジ2025の勝利解を提案する。
住宅の3D屋根のワイヤーフレームを、粗い点の雲とセマンティックセグメンテーションから予測する。
この2段階の3Dディープラーニングアプローチは、プライベートリーダーボードで0.43のハイブリッド構造スコア(HSS)を獲得した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents the winning solution for the S23DR Challenge 2025, which involves predicting a house's 3D roof wireframe from a sparse point cloud and semantic segmentations. Our method operates directly in 3D, first identifying vertex candidates from the COLMAP point cloud using Gestalt segmentations. We then employ two PointNet-like models: one to refine and classify these candidates by analyzing local cubic patches, and a second to predict edges by processing the cylindrical regions connecting vertex pairs. This two-stage, 3D deep learning approach achieved a winning Hybrid Structure Score (HSS) of 0.43 on the private leaderboard.
- Abstract(参考訳): 本稿では,S23DRチャレンジ2025において,疎点雲とセマンティックセグメンテーションから住宅の3次元屋根ワイヤーフレームを予測する手法を提案する。
提案手法は直接3Dで動作し,まずGestaltセグメンテーションを用いて,COLMAPポイントクラウドから頂点候補を識別する。
次に、局所的な立方体パッチを分析してこれらの候補を洗練・分類するモデルと、頂点ペアを接続する円筒領域を処理してエッジを予測するモデルを用いる。
この2段階の3Dディープラーニングアプローチは、プライベートリーダーボードで0.43のハイブリッド構造スコア(HSS)を獲得した。
関連論文リスト
- The 2nd Place Solution from the 3D Semantic Segmentation Track in the 2024 Waymo Open Dataset Challenge [9.315487983591998]
MixSeg3Dは、強力なポイントクラウドセグメンテーションモデルと高度な3Dデータミキシング戦略を組み合わせた高度な組み合わせである。
我々は,MixSeg3Dがベースラインや先行技術よりも優れていることを示す。
私たちのチームは、2024年のオープンデータセットチャレンジの3Dセマンティックセグメンテーショントラックで2位を獲得しました。
論文 参考訳(メタデータ) (2025-01-06T10:34:00Z) - PointSeg: A Training-Free Paradigm for 3D Scene Segmentation via Foundation Models [51.24979014650188]
我々は、市販の視覚基盤モデルを利用して、3Dシーン認識タスクに対処する学習自由パラダイムであるPointSegを提案する。
PointSegは正確な3Dプロンプトを取得してフレーム間で対応するピクセルを調整することで、任意の3Dシーンを分割することができる。
ScanNet、ScanNet++、KITTI-360データセット上の14.1$%、12.3$%、12.6$%のmAPは、最先端のトレーニングフリーモデルを大きく上回っている。
論文 参考訳(メタデータ) (2024-03-11T03:28:20Z) - Clustering based Point Cloud Representation Learning for 3D Analysis [80.88995099442374]
本稿では,ポイントクラウド分析のためのクラスタリングに基づく教師付き学習手法を提案する。
現在のデファクトでシーンワイドなトレーニングパラダイムとは異なり、我々のアルゴリズムは点埋め込み空間上でクラス内のクラスタリングを行う。
我々のアルゴリズムは、有名なポイントクラウドセグメンテーションデータセットの顕著な改善を示している。
論文 参考訳(メタデータ) (2023-07-27T03:42:12Z) - SATR: Zero-Shot Semantic Segmentation of 3D Shapes [74.08209893396271]
大規模オフザシェルフ2次元画像認識モデルを用いて3次元形状のゼロショットセマンティックセマンティックセマンティックセグメンテーションの課題について検討する。
本研究では、SATRアルゴリズムを開発し、ShapeNetPartと提案したFAUSTベンチマークを用いて評価する。
SATRは最先端のパフォーマンスを達成し、ベースラインアルゴリズムを平均mIoUの1.3%と4%で上回っている。
論文 参考訳(メタデータ) (2023-04-11T00:43:16Z) - SketchSampler: Sketch-based 3D Reconstruction via View-dependent Depth
Sampling [75.957103837167]
1枚のスケッチ画像に基づいて3次元形状を再構成することは、スパースで不規則なスケッチと正規の高密度な3次元形状との間に大きな領域ギャップがあるため困難である。
既存の作品では、3D座標を直接予測するためにスケッチから抽出されたグローバルな特徴を活用しようとするが、通常は入力スケッチに忠実でない細部を失う。
論文 参考訳(メタデータ) (2022-08-14T16:37:51Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - DV-Det: Efficient 3D Point Cloud Object Detection with Dynamic
Voxelization [0.0]
本稿では,効率的な3Dポイント・クラウド・オブジェクト検出のための新しい2段階フレームワークを提案する。
生のクラウドデータを3D空間で直接解析するが、目覚ましい効率と精度を実現する。
我々は,75 FPSでKITTI 3Dオブジェクト検出データセットを,25 FPSの推論速度で良好な精度でOpenデータセット上で強調する。
論文 参考訳(メタデータ) (2021-07-27T10:07:39Z) - PC2WF: 3D Wireframe Reconstruction from Raw Point Clouds [29.528059021509115]
PC2WFは、3Dポイントクラウドをワイヤフレームモデルに変換する最初のエンドツーエンドのディープネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2021-03-04T00:18:06Z) - ParaNet: Deep Regular Representation for 3D Point Clouds [62.81379889095186]
ParaNetは、3Dポイントクラウドを表現するための新しいエンドツーエンドのディープラーニングフレームワークである。
不規則な3D点雲を通常の2Dカラー画像に変換する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
論文 参考訳(メタデータ) (2020-12-05T13:19:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。