論文の概要: SegGraph: Leveraging Graphs of SAM Segments for Few-Shot 3D Part Segmentation
- arxiv url: http://arxiv.org/abs/2512.16143v1
- Date: Thu, 18 Dec 2025 03:55:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.90363
- Title: SegGraph: Leveraging Graphs of SAM Segments for Few-Shot 3D Part Segmentation
- Title(参考訳): SegGraph: SAMセグメンテーションのグラフを活用したFew-Shot 3Dパーツセグメンテーション
- Authors: Yueyang Hu, Haiyong Jiang, Haoxuan Song, Jun Xiao, Hao Pan,
- Abstract要約: 本研究は, 少数の3次元部分分割のための新しいフレームワークを提案する。
既存の手法では、3D特徴学習のための幾何学的構造を無視するか、SAMの高品質なグループ化ヒントを無視している。
SAMのセグメント化マスク内に符号化された幾何学的特徴を明示的に学習するために,SegGraphと呼ばれる新しいSAMセグメントグラフベースの伝搬法を考案した。
- 参考スコア(独自算出の注目度): 20.143843470532946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents a novel framework for few-shot 3D part segmentation. Recent advances have demonstrated the significant potential of 2D foundation models for low-shot 3D part segmentation. However, it is still an open problem that how to effectively aggregate 2D knowledge from foundation models to 3D. Existing methods either ignore geometric structures for 3D feature learning or neglects the high-quality grouping clues from SAM, leading to under-segmentation and inconsistent part labels. We devise a novel SAM segment graph-based propagation method, named SegGraph, to explicitly learn geometric features encoded within SAM's segmentation masks. Our method encodes geometric features by modeling mutual overlap and adjacency between segments while preserving intra-segment semantic consistency. We construct a segment graph, conceptually similar to an atlas, where nodes represent segments and edges capture their spatial relationships (overlap/adjacency). Each node adaptively modulates 2D foundation model features, which are then propagated via a graph neural network to learn global geometric structures. To enforce intra-segment semantic consistency, we map segment features to 3D points with a novel view-direction-weighted fusion attenuating contributions from low-quality segments. Extensive experiments on PartNet-E demonstrate that our method outperforms all competing baselines by at least 6.9 percent mIoU. Further analysis reveals that SegGraph achieves particularly strong performance on small components and part boundaries, demonstrating its superior geometric understanding. The code is available at: https://github.com/YueyangHu2000/SegGraph.
- Abstract(参考訳): 本研究は, 少数の3次元部分分割のための新しいフレームワークを提案する。
近年の進歩は、低ショット3次元部分分割のための2次元基礎モデルの有意な可能性を示している。
しかし、ファンデーションモデルから3Dへの2Dの知識を効果的に集約する方法は、依然としてオープンな問題である。
既存の手法は、3D特徴学習のための幾何学的構造を無視したり、SAMの高品質なグループ化の手がかりを無視したりすることで、低セグメンテーションと一貫性のない部分ラベルを生み出している。
SAMのセグメント化マスク内に符号化された幾何学的特徴を明示的に学習するために,SegGraphと呼ばれる新しいSAMセグメントグラフベースの伝搬法を考案した。
本手法は,セグメント間の相互重複と隣接性をモデル化し,セグメント内セマンティック一貫性を保ちながら幾何学的特徴を符号化する。
セグメントグラフは概念的にはアトラスに似ており、ノードはセグメントを表現し、エッジはその空間的関係(オーバーラップ/アジャクティクス)をキャプチャする。
各ノードは2D基礎モデルの特徴を適応的に変調し、グラフニューラルネットワークを介して伝播してグローバルな幾何学構造を学ぶ。
セグメンテーションにおけるセグメンテーションのセグメンテーションの一貫性を実現するため,セグメンテーションの特徴を3Dポイントにマッピングし,ビュー指向重み付き融合により低品質セグメンテーションからのコントリビューションを減らした。
PartNet-Eの大規模な実験により、我々の手法は少なくとも6.9%のmIoUで競合する全てのベースラインを上回ります。
さらに分析した結果、SegGraphは特に小さなコンポーネントや部分境界において強力なパフォーマンスを実現しており、その優れた幾何学的理解を示している。
コードは、https://github.com/YueyangHu2000/SegGraphで入手できる。
関連論文リスト
- View-Consistent Hierarchical 3D Segmentation Using Ultrametric Feature Fields [52.08335264414515]
我々は3次元シーンを表すニューラル・レージアンス・フィールド(NeRF)内の新しい特徴場を学習する。
本手法は、ビュー一貫性の多粒性2Dセグメンテーションを入力とし、3D一貫性のセグメンテーションの階層構造を出力として生成する。
提案手法と,多視点画像と多粒性セグメンテーションを用いた合成データセットのベースラインの評価を行い,精度と視点整合性を向上したことを示す。
論文 参考訳(メタデータ) (2024-05-30T04:14:58Z) - SAM-guided Graph Cut for 3D Instance Segmentation [60.75119991853605]
本稿では,3次元画像情報と多視点画像情報の同時利用による3次元インスタンス分割の課題に対処する。
本稿では,3次元インスタンスセグメンテーションのための2次元セグメンテーションモデルを効果的に活用する新しい3D-to-2Dクエリフレームワークを提案する。
本手法は,ロバストなセグメンテーション性能を実現し,異なるタイプのシーンにまたがる一般化を実現する。
論文 参考訳(メタデータ) (2023-12-13T18:59:58Z) - Segment Any 3D Gaussians [85.93694310363325]
本稿では, 3次元ガウススプレイティング(3D-GS)に基づく高効率3Dプロンプト可能なセグメンテーション法であるSAGAについて述べる。
入力として2D視覚的プロンプトが与えられたとき、SAGAは対応する3Dターゲットを4ミリ秒以内に3Dガウスで表現できる。
我々は,SAGAが最先端の手法に匹敵する品質で,リアルタイムな多粒度セグメンテーションを実現することを示す。
論文 参考訳(メタデータ) (2023-12-01T17:15:24Z) - PSSNet: Planarity-sensible Semantic Segmentation of Large-scale Urban
Meshes [3.058685580689605]
テクスチャメッシュとして表現された3次元都市シーンを解釈するための,新しいディープラーニングベースのフレームワークを提案する。
我々のフレームワークは2つのステップでセマンティックセグメンテーションを実現する: 計画性に敏感なオーバーセグメンテーションとセマンティックセグメンテーション。
我々のアプローチは、境界品質とIoU(組合間)の平均で最先端の手法より優れています。
論文 参考訳(メタデータ) (2022-02-07T14:16:10Z) - Robust 3D Scene Segmentation through Hierarchical and Learnable
Part-Fusion [9.275156524109438]
3Dセマンティックセグメンテーションは、自律運転、ロボット工学、AR/VRといったいくつかのシーン理解アプリケーションのための基本的なビルディングブロックである。
従来の手法では、階層的で反復的な手法を用いて意味や事例情報を融合するが、文脈融合における学習性は欠如している。
本稿では,セグメンテーション・フュージョン(Seegment-Fusion)について述べる。
論文 参考訳(メタデータ) (2021-11-16T13:14:47Z) - Learning Fine-Grained Segmentation of 3D Shapes without Part Labels [29.837938445219528]
学習に基づく3d形状セグメンテーションは、通常、トレーニング形状のすべての部分が所定のタグセットでアノテートされていると仮定して、意味的なラベリング問題として定式化される。
細粒度セグメンテーションを持つ形状データセットから,部分ラベルのない部分前処理を学習するための深層クラスタリングを提案する。
提案手法は,最先端性能を示す細粒度セグメンテーションの挑戦的なベンチマークを用いて評価する。
論文 参考訳(メタデータ) (2021-03-24T07:27:07Z) - Boundary-Aware Geometric Encoding for Semantic Segmentation of Point
Clouds [45.270215729464056]
境界情報は2Dイメージセグメンテーションにおいて重要な役割を果たすが、通常は3Dポイントクラウドセグメンテーションでは無視される。
境界点を予測するための境界予測モジュール(BPM)を提案する。
予測された境界に基づいて、境界認識ジオメトリック。
GEMは、幾何学的情報をエンコードし、近隣の差別を伴う特徴を集約するように設計されている。
論文 参考訳(メタデータ) (2021-01-07T05:38:19Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。