論文の概要: COB-GS: Clear Object Boundaries in 3DGS Segmentation Based on Boundary-Adaptive Gaussian Splitting
- arxiv url: http://arxiv.org/abs/2503.19443v2
- Date: Wed, 26 Mar 2025 06:20:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 12:47:10.390803
- Title: COB-GS: Clear Object Boundaries in 3DGS Segmentation Based on Boundary-Adaptive Gaussian Splitting
- Title(参考訳): COB-GS:境界適応ガウス分割に基づく3DGSセグメンテーションにおけるクリアオブジェクト境界
- Authors: Jiaxin Zhang, Junjun Jiang, Youyu Chen, Kui Jiang, Xianming Liu,
- Abstract要約: 3D Gaussian Splatting(3DGS)に基づく3Dセグメンテーションは、オブジェクトの境界を正確に記述するのに苦労する。
セグメンテーション精度の向上を目的とした3DGS(COB-GS)のためのクリアオブジェクト境界を導入する。
意味指導には境界適応型ガウス分割法を導入する。
視覚的最適化のために、3DGSシーンの劣化したテクスチャを補正する。
- 参考スコア(独自算出の注目度): 67.03992455145325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate object segmentation is crucial for high-quality scene understanding in the 3D vision domain. However, 3D segmentation based on 3D Gaussian Splatting (3DGS) struggles with accurately delineating object boundaries, as Gaussian primitives often span across object edges due to their inherent volume and the lack of semantic guidance during training. In order to tackle these challenges, we introduce Clear Object Boundaries for 3DGS Segmentation (COB-GS), which aims to improve segmentation accuracy by clearly delineating blurry boundaries of interwoven Gaussian primitives within the scene. Unlike existing approaches that remove ambiguous Gaussians and sacrifice visual quality, COB-GS, as a 3DGS refinement method, jointly optimizes semantic and visual information, allowing the two different levels to cooperate with each other effectively. Specifically, for the semantic guidance, we introduce a boundary-adaptive Gaussian splitting technique that leverages semantic gradient statistics to identify and split ambiguous Gaussians, aligning them closely with object boundaries. For the visual optimization, we rectify the degraded suboptimal texture of the 3DGS scene, particularly along the refined boundary structures. Experimental results show that COB-GS substantially improves segmentation accuracy and robustness against inaccurate masks from pre-trained model, yielding clear boundaries while preserving high visual quality. Code is available at https://github.com/ZestfulJX/COB-GS.
- Abstract(参考訳): 正確なオブジェクトセグメンテーションは、3次元視覚領域における高品質なシーン理解に不可欠である。
しかし、3Dガウススプラッティング(3DGS)に基づく3Dセグメンテーションは、ガウス原始体は、固有の体積と訓練中の意味指導の欠如のために、しばしば対象の端を越えて広がるため、正確に対象の境界を定めるのに苦労する。
これらの課題に対処するために,3DGSセグメンテーションのためのクリアオブジェクト境界(COB-GS)を導入する。
曖昧なガウスを除去し視覚的品質を犠牲にする既存のアプローチとは異なり、COB-GSは3DGSの改良手法として、意味と視覚情報を共同で最適化し、2つの異なるレベルが互いに効果的に協力できるようにする。
具体的には、セマンティックガイダンスのために、意味的勾配統計を利用して曖昧なガウスを識別・分割し、それらをオブジェクト境界と密接に整合させる境界適応ガウス分割手法を導入する。
視覚的最適化のために、3DGSシーンの劣化した部分最適テクスチャを、特に洗練された境界構造に沿って修正する。
実験結果から,COB-GSはトレーニング前のモデルから不正確なマスクに対するセグメンテーション精度とロバスト性を大幅に向上し,視覚的品質を保ちながら明確な境界が得られることがわかった。
コードはhttps://github.com/ZestfulJX/COB-GSで入手できる。
関連論文リスト
- CAGS: Open-Vocabulary 3D Scene Understanding with Context-Aware Gaussian Splatting [18.581169318975046]
3D Gaussian Splatting (3DGS) はシーン再構築のための強力な表現を提供するが、相互視の粒度の不整合は問題である。
空間コンテキストを3DGSに組み込んだ新しいフレームワークCAGSを提案する。
CAGSは3Dインスタンスのセグメンテーションを大幅に改善し、LERF-OVSやScanNetといったデータセットのフラグメンテーションエラーを低減する。
論文 参考訳(メタデータ) (2025-04-16T09:20:03Z) - BG-Triangle: Bézier Gaussian Triangle for 3D Vectorization and Rendering [60.240908644910874]
微分レンダリングは、レンダリングプロセスを通じて勾配を計算できるようにすることで、効率的な最適化を可能にする。
既存の解は、滑らかで確率的プロキシを使って従来のレンダリング操作を近似または再定式化する。
本稿では,B'ezier三角形に基づくベクトルグラフィックスプリミティブとガウス確率モデルを組み合わせたハイブリッド表現を提案する。
論文 参考訳(メタデータ) (2025-03-18T06:53:52Z) - GaussianGraph: 3D Gaussian-based Scene Graph Generation for Open-world Scene Understanding [20.578106363482018]
本稿では,セマンティッククラスタリングとシーングラフ生成を統合し,3DGSに基づくシーン理解を強化する新しいフレームワークを提案する。
本稿では,シーンスケールや特徴分布に動的に対応し,特徴圧縮を回避する"Control-Follow"クラスタリング戦略を提案する。
2次元基礎モデルから抽出したオブジェクト属性と空間関係を統合することでシーン表現を充実させる。
論文 参考訳(メタデータ) (2025-03-06T02:36:59Z) - Pointmap Association and Piecewise-Plane Constraint for Consistent and Compact 3D Gaussian Segmentation Field [24.145668344380766]
CCGSは、ビュー一貫性のある2Dセグメンテーションとコンパクトな3Dガウスセグメンテーションの両方を実現するために設計された手法である。
ScanNetとReplicaのデータセットの実験結果から、CCGSは2Dパノプティカルセグメンテーションと3Dガウスセグメンテーションの両方において既存の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-02-22T17:23:46Z) - GradiSeg: Gradient-Guided Gaussian Segmentation with Enhanced 3D Boundary Precision [11.99904956714193]
シーンのより深いセマンティックな理解を構築するためにアイデンティティーを組み込んだ新しい3DGSベースのフレームワークGradiSegを提案する。
提案手法では,Identity Gradient Guided Densification (IGD)とLocal Adaptive K-Nearest Neighbors (LA-KNN)の2つの重要なモジュールを導入している。
その結果,GradiSは境界問題に効果的に対応し,シーン再構成の品質を損なうことなくセグメンテーション精度を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-11-30T08:07:37Z) - Bootstraping Clustering of Gaussians for View-consistent 3D Scene Understanding [59.51535163599723]
FreeGSは、教師なしセマンティック組み込み3DGSフレームワークで、2Dラベルを必要とせずに、ビュー一貫性のある3Dシーン理解を実現する。
我々は、FreeGSが複雑なデータ前処理作業の負荷を回避しつつ、最先端のメソッドと互換性があることを示す。
論文 参考訳(メタデータ) (2024-11-29T08:52:32Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - SAGD: Boundary-Enhanced Segment Anything in 3D Gaussian via Gaussian Decomposition [66.56357905500512]
3Dガウススプラッティングは、新しいビュー合成のための代替の3D表現として登場した。
SAGDは3D-GSのための概念的にシンプルで効果的な境界拡張パイプラインである。
提案手法は粗い境界問題なく高品質な3Dセグメンテーションを実現し,他のシーン編集作業にも容易に適用できる。
論文 参考訳(メタデータ) (2024-01-31T14:19:03Z) - Segment Any 3D Gaussians [85.93694310363325]
本稿では, 3次元ガウススプレイティング(3D-GS)に基づく高効率3Dプロンプト可能なセグメンテーション法であるSAGAについて述べる。
入力として2D視覚的プロンプトが与えられたとき、SAGAは対応する3Dターゲットを4ミリ秒以内に3Dガウスで表現できる。
我々は,SAGAが最先端の手法に匹敵する品質で,リアルタイムな多粒度セグメンテーションを実現することを示す。
論文 参考訳(メタデータ) (2023-12-01T17:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。