論文の概要: ASSIST-3D: Adapted Scene Synthesis for Class-Agnostic 3D Instance Segmentation
- arxiv url: http://arxiv.org/abs/2512.09364v1
- Date: Wed, 10 Dec 2025 06:54:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.421138
- Title: ASSIST-3D: Adapted Scene Synthesis for Class-Agnostic 3D Instance Segmentation
- Title(参考訳): ASSIST-3D: クラス非依存の3次元インスタンスセグメンテーションのための適応シーン合成
- Authors: Shengchao Zhou, Jiehong Lin, Jiahui Liu, Shizhen Zhao, Chirui Chang, Xiaojuan Qi,
- Abstract要約: クラスに依存しない3Dインスタンスのセグメンテーションは、セグメンテーションなしで、以前は目に見えないものを含む全てのオブジェクトインスタンスをセグメンテーションする難しいタスクに取り組む。
現在の手法では、3Dシーンデータやノイズの多い2Dセグメンテーションが不足しているため、一般化に苦慮している。
ASSIST-3Dと呼ばれるクラスに依存しない3次元インスタンスセグメンテーションのための適応型3次元シーン合成パイプラインを提案し、モデル一般化拡張のための適切なデータを合成する。
- 参考スコア(独自算出の注目度): 33.067758244887514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class-agnostic 3D instance segmentation tackles the challenging task of segmenting all object instances, including previously unseen ones, without semantic class reliance. Current methods struggle with generalization due to the scarce annotated 3D scene data or noisy 2D segmentations. While synthetic data generation offers a promising solution, existing 3D scene synthesis methods fail to simultaneously satisfy geometry diversity, context complexity, and layout reasonability, each essential for this task. To address these needs, we propose an Adapted 3D Scene Synthesis pipeline for class-agnostic 3D Instance SegmenTation, termed as ASSIST-3D, to synthesize proper data for model generalization enhancement. Specifically, ASSIST-3D features three key innovations, including 1) Heterogeneous Object Selection from extensive 3D CAD asset collections, incorporating randomness in object sampling to maximize geometric and contextual diversity; 2) Scene Layout Generation through LLM-guided spatial reasoning combined with depth-first search for reasonable object placements; and 3) Realistic Point Cloud Construction via multi-view RGB-D image rendering and fusion from the synthetic scenes, closely mimicking real-world sensor data acquisition. Experiments on ScanNetV2, ScanNet++, and S3DIS benchmarks demonstrate that models trained with ASSIST-3D-generated data significantly outperform existing methods. Further comparisons underscore the superiority of our purpose-built pipeline over existing 3D scene synthesis approaches.
- Abstract(参考訳): クラスに依存しない3Dインスタンスのセグメンテーションは、セグメンテーションなしで、以前は目に見えないものを含む全てのオブジェクトインスタンスをセグメンテーションする難しいタスクに取り組む。
現在の手法では、3Dシーンデータやノイズの多い2Dセグメンテーションが不足しているため、一般化に苦慮している。
合成データ生成は有望なソリューションを提供するが、既存の3Dシーン合成手法は、このタスクに欠かせない幾何学的多様性、コンテキストの複雑さ、レイアウトの論理可能性を同時に満たさない。
これらのニーズに対処するために,ASSIST-3Dと呼ばれるクラスに依存しない3次元インスタンスセグメンテーションのための適応型3次元シーン合成パイプラインを提案し,モデル一般化拡張のための適切なデータを合成する。
具体的には、ASSIST-3Dには3つの重要なイノベーションがある。
1)広範囲な3次元CADアセットコレクションからの不均一なオブジェクト選択を行い、オブジェクトサンプリングにランダム性を取り入れ、幾何学的および文脈的多様性を最大化する。
2 LLM誘導空間推論によるシーンレイアウト生成と深度優先探索を組み合わせた合理的物体配置
3)マルチビューRGB-D画像レンダリングと合成シーンからの融合によるリアル・ポイント・クラウドの構築。
ScanNetV2、ScanNet++、S3DISベンチマークの実験では、ASSIST-3Dで生成されたデータでトレーニングされたモデルが既存の手法を大幅に上回っている。
さらに,既存の3次元シーン合成手法と比較して,目的構築パイプラインの優位性を強調した。
関連論文リスト
- Unlocking 3D Affordance Segmentation with 2D Semantic Knowledge [45.19482892758984]
Affordance segmentationは、3Dオブジェクトを機能的に異なる部分にパースすることを目的としている。
我々は,3次元エンコーダを昇降した2次元意味論と整合させ,再現,親和性,多様性を共同で最適化し,意味的に整理された表現を得るための事前学習戦略であるCross-Modal Affinity Transfer (CMAT)を導入する。
さらに,マルチモーダルプロンプトとCMAT対応機能を統合し,高精度かつ迅速なセグメンテーションマップを生成するCAST (Cross-modal Affordance Transformer) を設計する。
論文 参考訳(メタデータ) (2025-10-09T15:01:26Z) - DCSEG: Decoupled 3D Open-Set Segmentation using Gaussian Splatting [0.0]
本稿では,新しい3次元表現へのモジュラリティと適応性を確保するために,分離した3次元分割パイプラインを提案する。
我々は、合成および実世界の屋内データセットを評価し、同等のNeRFパイプラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-14T21:26:44Z) - SAI3D: Segment Any Instance in 3D Scenes [68.57002591841034]
新規なゼロショット3Dインスタンスセグメンテーション手法であるSAI3Dを紹介する。
我々の手法は3Dシーンを幾何学的プリミティブに分割し、段階的に3Dインスタンスセグメンテーションにマージする。
ScanNet、Matterport3D、さらに難しいScanNet++データセットに関する実証的な評価は、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2023-12-17T09:05:47Z) - DatasetNeRF: Efficient 3D-aware Data Factory with Generative Radiance Fields [68.94868475824575]
本稿では,無限で高品質な3Dアノテーションを3Dポイントクラウドセグメンテーションとともに生成できる新しいアプローチを提案する。
我々は3次元生成モデルに先立って強力なセマンティクスを活用してセマンティクスデコーダを訓練する。
トレーニングが完了すると、デコーダは遅延空間を効率よく一般化し、無限のデータの生成を可能にする。
論文 参考訳(メタデータ) (2023-11-18T21:58:28Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。