論文の概要: SegviGen: Repurposing 3D Generative Model for Part Segmentation
- arxiv url: http://arxiv.org/abs/2603.16869v1
- Date: Tue, 17 Mar 2026 17:59:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.476314
- Title: SegviGen: Repurposing 3D Generative Model for Part Segmentation
- Title(参考訳): SegviGen:パートセグメンテーションのための3D生成モデルの再利用
- Authors: Lin Li, Haoran Feng, Zehuan Huang, Haohua Chen, Wenbo Nie, Shaohua Hou, Keqing Fan, Pan Hu, Sheng Wang, Buyu Li, Lu Sheng,
- Abstract要約: 我々は,3次元部分分割のためのネイティブな3次元生成モデルを再利用するフレームワークであるSegviGenを紹介する。
SegviGenは3Dアセットをエンコードし、幾何学的に整列された再構成の活性ボクセル上の部分表示色を予測する。
インタラクティブな部分のセグメンテーション、完全なセグメンテーション、統合されたフレームワークでの2Dガイダンスによる完全なセグメンテーションをサポートする。
- 参考スコア(独自算出の注目度): 19.167246772974483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce SegviGen, a framework that repurposes native 3D generative models for 3D part segmentation. Existing pipelines either lift strong 2D priors into 3D via distillation or multi-view mask aggregation, often suffering from cross-view inconsistency and blurred boundaries, or explore native 3D discriminative segmentation, which typically requires large-scale annotated 3D data and substantial training resources. In contrast, SegviGen leverages the structured priors encoded in pretrained 3D generative model to induce segmentation through distinctive part colorization, establishing a novel and efficient framework for part segmentation. Specifically, SegviGen encodes a 3D asset and predicts part-indicative colors on active voxels of a geometry-aligned reconstruction. It supports interactive part segmentation, full segmentation, and full segmentation with 2D guidance in a unified framework. Extensive experiments show that SegviGen improves over the prior state of the art by 40% on interactive part segmentation and by 15% on full segmentation, while using only 0.32% of the labeled training data. It demonstrates that pretrained 3D generative priors transfer effectively to 3D part segmentation, enabling strong performance with limited supervision. See our project page at https://fenghora.github.io/SegviGen-Page/.
- Abstract(参考訳): 我々は,3次元部分分割のためのネイティブな3次元生成モデルを再利用するフレームワークであるSegviGenを紹介する。
既存のパイプラインは、蒸留または多視点マスクアグリゲーションを通じて、強い2D先行データを3Dに持ち上げるか、しばしばクロスビューの不整合と曖昧な境界に悩まされるか、あるいは大規模なアノテーション付き3Dデータと実質的なトレーニングリソースを必要とするネイティブな3D識別セグメンテーションを探索する。
対照的に、SegviGenは、事前訓練された3次元生成モデルで符号化された構造化された前駆体を利用して、独特な部分の着色を通してセグメンテーションを誘導し、新しい、効率的な部分のセグメンテーションの枠組みを確立する。
具体的には、SegviGenは3Dアセットを符号化し、幾何学的に整列された再構成のアクティブなボクセル上の部分表示色を予測する。
インタラクティブな部分のセグメンテーション、完全なセグメンテーション、統合されたフレームワークでの2Dガイダンスによる完全なセグメンテーションをサポートする。
広範な実験により、SegviGenは、インタラクティブな部分セグメンテーションで40%、フルセグメンテーションで15%改善し、ラベル付きトレーニングデータの0.32%しか使用していないことが示されている。
プレトレーニングされた3D生成前駆体は、3D部分セグメンテーションに効果的に移行し、限られた監督力で高い性能を発揮できることを示した。
プロジェクトページはhttps://fenghora.github.io/SegviGen-Page/にある。
関連論文リスト
- DCSEG: Decoupled 3D Open-Set Segmentation using Gaussian Splatting [0.0]
本稿では,新しい3次元表現へのモジュラリティと適応性を確保するために,分離した3次元分割パイプラインを提案する。
我々は、合成および実世界の屋内データセットを評価し、同等のNeRFパイプラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-14T21:26:44Z) - SAM-guided Graph Cut for 3D Instance Segmentation [60.75119991853605]
本稿では,3次元画像情報と多視点画像情報の同時利用による3次元インスタンス分割の課題に対処する。
本稿では,3次元インスタンスセグメンテーションのための2次元セグメンテーションモデルを効果的に活用する新しい3D-to-2Dクエリフレームワークを提案する。
本手法は,ロバストなセグメンテーション性能を実現し,異なるタイプのシーンにまたがる一般化を実現する。
論文 参考訳(メタデータ) (2023-12-13T18:59:58Z) - PartSLIP++: Enhancing Low-Shot 3D Part Segmentation via Multi-View
Instance Segmentation and Maximum Likelihood Estimation [32.2861030554128]
最近の進歩であるPartSLIPは、ゼロと少数ショットの3D部分セグメンテーションにおいて大きな進歩を遂げている。
先代の制限を克服するために設計された拡張バージョンであるPartSLIP++を紹介する。
ローショットな3Dセマンティクスとインスタンスベースのオブジェクト部分分割タスクの両方において、PartSLIP++はPartSLIPよりも優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-12-05T01:33:04Z) - Segment Any 3D Gaussians [85.93694310363325]
本稿では, 3次元ガウススプレイティング(3D-GS)に基づく高効率3Dプロンプト可能なセグメンテーション法であるSAGAについて述べる。
入力として2D視覚的プロンプトが与えられたとき、SAGAは対応する3Dターゲットを4ミリ秒以内に3Dガウスで表現できる。
我々は,SAGAが最先端の手法に匹敵する品質で,リアルタイムな多粒度セグメンテーションを実現することを示す。
論文 参考訳(メタデータ) (2023-12-01T17:15:24Z) - A One Stop 3D Target Reconstruction and multilevel Segmentation Method [0.0]
オープンソースのワンストップ3Dターゲット再構成とマルチレベルセグメンテーションフレームワーク(OSTRA)を提案する。
OSTRAは2D画像上でセグメンテーションを行い、画像シーケンス内のセグメンテーションラベルで複数のインスタンスを追跡し、ラベル付き3Dオブジェクトまたは複数のパーツをMulti-View Stereo(MVS)またはRGBDベースの3D再構成手法で再構成する。
本手法は,複雑なシーンにおいて,リッチなマルチスケールセグメンテーション情報に埋め込まれた3次元ターゲットを再構築するための新たな道を開く。
論文 参考訳(メタデータ) (2023-08-14T07:12:31Z) - PartSLIP: Low-Shot Part Segmentation for 3D Point Clouds via Pretrained
Image-Language Models [56.324516906160234]
一般化可能な3D部分分割は重要だが、ビジョンとロボティクスでは難しい。
本稿では,事前学習した画像言語モデルGLIPを利用して,3次元点雲の低ショット部分分割法を提案する。
我々は2Dから3Dへの豊富な知識を、ポイントクラウドレンダリングにおけるGLIPに基づく部分検出と新しい2D-to-3Dラベルリフトアルゴリズムにより転送する。
論文 参考訳(メタデータ) (2022-12-03T06:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。