論文の概要: Pre-training with 3D Synthetic Data: Learning 3D Point Cloud Instance Segmentation from 3D Synthetic Scenes
- arxiv url: http://arxiv.org/abs/2503.24229v1
- Date: Mon, 31 Mar 2025 15:42:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:35:00.727729
- Title: Pre-training with 3D Synthetic Data: Learning 3D Point Cloud Instance Segmentation from 3D Synthetic Scenes
- Title(参考訳): 3D合成データによる事前学習:3D合成シーンから3Dポイントクラウドインスタンスセグメンテーションを学習する
- Authors: Daichi Otsuka, Shinichi Mae, Ryosuke Yamada, Hirokatsu Kataoka,
- Abstract要約: 本稿では,3次元クラウドインスタンスセグメンテーションモデルをトレーニングするために,3次元合成データを用いた事前学習を提案する。
我々は、生成したデータを3Dシーンに挿入するために、Point-Eで直接3Dポイントクラウドデータを生成する。
実験では,事前学習法とベースライン法を比較し,性能改善を示した。
- 参考スコア(独自算出の注目度): 9.632798041899289
- License:
- Abstract: In the recent years, the research community has witnessed growing use of 3D point cloud data for the high applicability in various real-world applications. By means of 3D point cloud, this modality enables to consider the actual size and spatial understanding. The applied fields include mechanical control of robots, vehicles, or other real-world systems. Along this line, we would like to improve 3D point cloud instance segmentation which has emerged as a particularly promising approach for these applications. However, the creation of 3D point cloud datasets entails enormous costs compared to 2D image datasets. To train a model of 3D point cloud instance segmentation, it is necessary not only to assign categories but also to provide detailed annotations for each point in the large-scale 3D space. Meanwhile, the increase of recent proposals for generative models in 3D domain has spurred proposals for using a generative model to create 3D point cloud data. In this work, we propose a pre-training with 3D synthetic data to train a 3D point cloud instance segmentation model based on generative model for 3D scenes represented by point cloud data. We directly generate 3D point cloud data with Point-E for inserting a generated data into a 3D scene. More recently in 2025, although there are other accurate 3D generation models, even using the Point-E as an early 3D generative model can effectively support the pre-training with 3D synthetic data. In the experimental section, we compare our pre-training method with baseline methods indicated improved performance, demonstrating the efficacy of 3D generative models for 3D point cloud instance segmentation.
- Abstract(参考訳): 近年、研究コミュニティは、様々な現実世界のアプリケーションで高い適用性のために3Dポイントのクラウドデータの利用が増えているのを目撃している。
3次元点雲により、このモジュラリティは実際の大きさと空間的理解を考慮できる。
応用分野には、ロボット、車両、その他の現実世界システムの機械的制御が含まれる。
この線に沿って、これらのアプリケーションにとって特に有望なアプローチとして登場した3Dポイントクラウドインスタンスセグメンテーションを改善したいと考えています。
しかし、3Dポイントのクラウドデータセットの作成は、2Dイメージデータセットと比較して非常にコストがかかる。
3Dポイントクラウドインスタンスセグメンテーションのモデルをトレーニングするには、カテゴリを割り当てるだけでなく、大規模3D空間の各ポイントについて詳細なアノテーションを提供する必要がある。
一方、3D領域における生成モデルに関する最近の提案の増加は、生成モデルを使用して3Dポイントクラウドデータを作成するための提案を刺激している。
本研究では,3次元合成データを用いた事前学習を行い,ポイントクラウドデータで表現された3次元シーンの生成モデルに基づく3次元クラウドインスタンスセグメンテーションモデルを訓練する。
我々は、生成したデータを3Dシーンに挿入するために、Point-Eで直接3Dポイントクラウドデータを生成する。
最近では、他の正確な3D生成モデルもあるが、Point-Eを初期の3D生成モデルとして使用しても、3D合成データによる事前学習を効果的にサポートすることができる。
実験では,3次元クラウドインスタンスセグメンテーションにおける3次元生成モデルの有効性を実証し,性能向上を示すベースライン法との比較を行った。
関連論文リスト
- 3DSES: an indoor Lidar point cloud segmentation dataset with real and pseudo-labels from a 3D model [1.7249361224827533]
3DSESは,427m2の高密度TLS着色点雲の新しいデータセットである。
3DSESにはユニークな二重アノテーション形式がある: 意味ラベルは、建物の完全な3DCADモデルと共にポイントレベルでアノテートされる。
モデルとクラウドのアライメントは、ポイントクラウド上の擬似ラベルをa>95%の精度で生成できることを示します。
論文 参考訳(メタデータ) (2025-01-29T10:09:32Z) - Text-guided Synthetic Geometric Augmentation for Zero-shot 3D Understanding [27.755532663325244]
Textguided Geometric Augmentation (TeGA)は、ゼロショット3D分類においてSoTAを実現する言語イメージ3D事前訓練用に調整されている。
我々は,TeGAが3Dデータギャップを効果的に橋渡しし,実際の訓練データに限りなく頑健なゼロショット3D分類を可能にすることを示す。
論文 参考訳(メタデータ) (2025-01-16T03:54:06Z) - DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - DatasetNeRF: Efficient 3D-aware Data Factory with Generative Radiance Fields [68.94868475824575]
本稿では,無限で高品質な3Dアノテーションを3Dポイントクラウドセグメンテーションとともに生成できる新しいアプローチを提案する。
我々は3次元生成モデルに先立って強力なセマンティクスを活用してセマンティクスデコーダを訓練する。
トレーニングが完了すると、デコーダは遅延空間を効率よく一般化し、無限のデータの生成を可能にする。
論文 参考訳(メタデータ) (2023-11-18T21:58:28Z) - Leveraging Large-Scale Pretrained Vision Foundation Models for
Label-Efficient 3D Point Cloud Segmentation [67.07112533415116]
本稿では3Dポイントクラウドセグメンテーションタスクに様々な基礎モデルを適用する新しいフレームワークを提案する。
我々のアプローチでは、異なる大きな視覚モデルを用いて2次元セマンティックマスクの初期予測を行う。
本研究では,ロバストな3Dセマンティックな擬似ラベルを生成するために,投票による全ての結果を効果的に組み合わせたセマンティックなラベル融合戦略を提案する。
論文 参考訳(メタデータ) (2023-11-03T15:41:15Z) - Uni3D: Exploring Unified 3D Representation at Scale [66.26710717073372]
大規模に統一された3次元表現を探索する3次元基礎モデルであるUni3Dを提案する。
Uni3Dは、事前にトレーニングされた2D ViTのエンドツーエンドを使用して、3Dポイントクラウド機能と画像テキスト整列機能とを一致させる。
強力なUni3D表現は、野生での3D絵画や検索などの応用を可能にする。
論文 参考訳(メタデータ) (2023-10-10T16:49:21Z) - Sparse2Dense: Learning to Densify 3D Features for 3D Object Detection [85.08249413137558]
LiDARが生成する点雲は、最先端の3Dオブジェクト検出器の主要な情報源である。
小さい、遠く、不完全な点の少ない物体は、しばしば検出するのが困難である。
Sparse2Denseは、潜在空間における点雲の密度化を学習することで、3D検出性能を効率的に向上する新しいフレームワークである。
論文 参考訳(メタデータ) (2022-11-23T16:01:06Z) - A Convolutional Architecture for 3D Model Embedding [1.3858051019755282]
入力として3Dモデルを扱うディープラーニングアーキテクチャを提案する。
埋め込み表現は3Dオブジェクトの類似性評価を扱うのに役立つセマンティック情報を伝えることを示した。
論文 参考訳(メタデータ) (2021-03-05T15:46:47Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。