論文の概要: COB-GS: Clear Object Boundaries in 3DGS Segmentation Based on Boundary-Adaptive Gaussian Splitting
- arxiv url: http://arxiv.org/abs/2503.19443v1
- Date: Tue, 25 Mar 2025 08:31:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:55:24.288810
- Title: COB-GS: Clear Object Boundaries in 3DGS Segmentation Based on Boundary-Adaptive Gaussian Splitting
- Title(参考訳): COB-GS:境界適応ガウス分割に基づく3DGSセグメンテーションにおけるクリアオブジェクト境界
- Authors: Jiaxin Zhang, Junjun Jiang, Youyu Chen, Kui Jiang, Xianming Liu,
- Abstract要約: 3D Gaussian Splatting(3DGS)に基づく3Dセグメンテーションは、オブジェクトの境界を正確に記述するのに苦労する。
セグメンテーション精度の向上を目的とした3DGS(COB-GS)のためのクリアオブジェクト境界を導入する。
意味指導には境界適応型ガウス分割法を導入する。
視覚的最適化のために、3DGSシーンの劣化したテクスチャを補正する。
- 参考スコア(独自算出の注目度): 67.03992455145325
- License:
- Abstract: Accurate object segmentation is crucial for high-quality scene understanding in the 3D vision domain. However, 3D segmentation based on 3D Gaussian Splatting (3DGS) struggles with accurately delineating object boundaries, as Gaussian primitives often span across object edges due to their inherent volume and the lack of semantic guidance during training. In order to tackle these challenges, we introduce Clear Object Boundaries for 3DGS Segmentation (COB-GS), which aims to improve segmentation accuracy by clearly delineating blurry boundaries of interwoven Gaussian primitives within the scene. Unlike existing approaches that remove ambiguous Gaussians and sacrifice visual quality, COB-GS, as a 3DGS refinement method, jointly optimizes semantic and visual information, allowing the two different levels to cooperate with each other effectively. Specifically, for the semantic guidance, we introduce a boundary-adaptive Gaussian splitting technique that leverages semantic gradient statistics to identify and split ambiguous Gaussians, aligning them closely with object boundaries. For the visual optimization, we rectify the degraded suboptimal texture of the 3DGS scene, particularly along the refined boundary structures. Experimental results show that COB-GS substantially improves segmentation accuracy and robustness against inaccurate masks from pre-trained model, yielding clear boundaries while preserving high visual quality. Code is available at https://github.com/ZestfulJX/COB-GS.
- Abstract(参考訳): 正確なオブジェクトセグメンテーションは、3次元視覚領域における高品質なシーン理解に不可欠である。
しかし、3Dガウススプラッティング(3DGS)に基づく3Dセグメンテーションは、ガウス原始体は、固有の体積と訓練中の意味指導の欠如のために、しばしば対象の端を越えて広がるため、正確に対象の境界を定めるのに苦労する。
これらの課題に対処するために,3DGSセグメンテーションのためのクリアオブジェクト境界(COB-GS)を導入する。
曖昧なガウスを除去し視覚的品質を犠牲にする既存のアプローチとは異なり、COB-GSは3DGSの改良手法として、意味と視覚情報を共同で最適化し、2つの異なるレベルが互いに効果的に協力できるようにする。
具体的には、セマンティックガイダンスのために、意味的勾配統計を利用して曖昧なガウスを識別・分割し、それらをオブジェクト境界と密接に整合させる境界適応ガウス分割手法を導入する。
視覚的最適化のために、3DGSシーンの劣化した部分最適テクスチャを、特に洗練された境界構造に沿って修正する。
実験結果から,COB-GSはトレーニング前のモデルから不正確なマスクに対するセグメンテーション精度とロバスト性を大幅に向上し,視覚的品質を保ちながら明確な境界が得られることがわかった。
コードはhttps://github.com/ZestfulJX/COB-GSで入手できる。
関連論文リスト
- GAGS: Granularity-Aware Feature Distillation for Language Gaussian Splatting [17.357179730544175]
近年,空間内の物体の複雑な意味的特性を正確に知覚する3次元オープン語彙シーン理解が注目されている。
GAGSは2次元CLIP機能を3次元ガウススプラッティングに蒸留し,任意の視点でレンダリングを行うためのオープン語彙クエリを実現するフレームワークである。
論文 参考訳(メタデータ) (2024-12-18T09:33:20Z) - TSGaussian: Semantic and Depth-Guided Target-Specific Gaussian Splatting from Sparse Views [18.050257821756148]
TSGaussianは、新しいビュー合成タスクにおける幾何学的劣化を避けるために、意味的制約と深さ事前の制約を組み合わせる新しいフレームワークである。
提案手法は,バックグラウンドアロケーションを最小化しながら,指定された目標に対する計算資源の優先順位付けを行う。
大規模な実験により、TSGaussianは3つの標準データセット上で最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-12-13T11:26:38Z) - GradiSeg: Gradient-Guided Gaussian Segmentation with Enhanced 3D Boundary Precision [11.99904956714193]
シーンのより深いセマンティックな理解を構築するためにアイデンティティーを組み込んだ新しい3DGSベースのフレームワークGradiSegを提案する。
提案手法では,Identity Gradient Guided Densification (IGD)とLocal Adaptive K-Nearest Neighbors (LA-KNN)の2つの重要なモジュールを導入している。
その結果,GradiSは境界問題に効果的に対応し,シーン再構成の品質を損なうことなくセグメンテーション精度を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-11-30T08:07:37Z) - Bootstraping Clustering of Gaussians for View-consistent 3D Scene Understanding [59.51535163599723]
FreeGSは、教師なしセマンティック組み込み3DGSフレームワークで、2Dラベルを必要とせずに、ビュー一貫性のある3Dシーン理解を実現する。
我々は、FreeGSが複雑なデータ前処理作業の負荷を回避しつつ、最先端のメソッドと互換性があることを示す。
論文 参考訳(メタデータ) (2024-11-29T08:52:32Z) - ShapeSplat: A Large-scale Dataset of Gaussian Splats and Their Self-Supervised Pretraining [104.34751911174196]
ShapeNetとModelNetを用いた大規模3DGSデータセットを構築した。
データセットのShapeSplatは、87のユニークなカテゴリから65Kのオブジェクトで構成されています。
textbftextitGaussian-MAEを導入し、ガウスパラメータからの表現学習の独特な利点を強調した。
論文 参考訳(メタデータ) (2024-08-20T14:49:14Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - SAGD: Boundary-Enhanced Segment Anything in 3D Gaussian via Gaussian Decomposition [66.56357905500512]
3Dガウススプラッティングは、新しいビュー合成のための代替の3D表現として登場した。
SAGDは3D-GSのための概念的にシンプルで効果的な境界拡張パイプラインである。
提案手法は粗い境界問題なく高品質な3Dセグメンテーションを実現し,他のシーン編集作業にも容易に適用できる。
論文 参考訳(メタデータ) (2024-01-31T14:19:03Z) - Segment Any 3D Gaussians [85.93694310363325]
本稿では, 3次元ガウススプレイティング(3D-GS)に基づく高効率3Dプロンプト可能なセグメンテーション法であるSAGAについて述べる。
入力として2D視覚的プロンプトが与えられたとき、SAGAは対応する3Dターゲットを4ミリ秒以内に3Dガウスで表現できる。
我々は,SAGAが最先端の手法に匹敵する品質で,リアルタイムな多粒度セグメンテーションを実現することを示す。
論文 参考訳(メタデータ) (2023-12-01T17:15:24Z) - Push-the-Boundary: Boundary-aware Feature Propagation for Semantic
Segmentation of 3D Point Clouds [0.5249805590164901]
本研究では,オブジェクト境界近傍のセマンティックセグメンテーションを改善するための境界対応特徴伝搬機構を提案する。
1つの共有エンコーダで、ネットワークは、(i)境界ローカライゼーション、(ii)オブジェクトの内部を指す方向の予測、(iii)セマンティックセグメンテーションを3つの並列ストリームで出力する。
提案手法は境界誤差を低減することによって一貫した改善をもたらす。
論文 参考訳(メタデータ) (2022-12-23T15:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。