論文の概要: B$^3$-Seg: Camera-Free, Training-Free 3DGS Segmentation via Analytic EIG and Beta-Bernoulli Bayesian Updates
- arxiv url: http://arxiv.org/abs/2602.17134v1
- Date: Thu, 19 Feb 2026 07:14:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.803022
- Title: B$^3$-Seg: Camera-Free, Training-Free 3DGS Segmentation via Analytic EIG and Beta-Bernoulli Bayesian Updates
- Title(参考訳): B$3$-Seg:Analytic EIGとBeta-Bernoulli Bayesianのアップデートによるカメラフリー、トレーニングフリーの3DGSセグメンテーション
- Authors: Hiromichi Kamata, Samuel Arthur Munro, Fuminori Homma,
- Abstract要約: インタラクティブな3Dガウススプラッティング(3DGS)セグメンテーションは、映画やゲーム制作における事前構築された資産のリアルタイムな編集に不可欠である。
B$3$-Seg (Beta-Bernoulli Bayesian for 3DGS)を提案する。
- 参考スコア(独自算出の注目度): 1.5038537438390556
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interactive 3D Gaussian Splatting (3DGS) segmentation is essential for real-time editing of pre-reconstructed assets in film and game production. However, existing methods rely on predefined camera viewpoints, ground-truth labels, or costly retraining, making them impractical for low-latency use. We propose B$^3$-Seg (Beta-Bernoulli Bayesian Segmentation for 3DGS), a fast and theoretically grounded method for open-vocabulary 3DGS segmentation under camera-free and training-free conditions. Our approach reformulates segmentation as sequential Beta-Bernoulli Bayesian updates and actively selects the next view via analytic Expected Information Gain (EIG). This Bayesian formulation guarantees the adaptive monotonicity and submodularity of EIG, which produces a greedy $(1{-}1/e)$ approximation to the optimal view sampling policy. Experiments on multiple datasets show that B$^3$-Seg achieves competitive results to high-cost supervised methods while operating end-to-end segmentation within a few seconds. The results demonstrate that B$^3$-Seg enables practical, interactive 3DGS segmentation with provable information efficiency.
- Abstract(参考訳): インタラクティブな3Dガウススプラッティング(3DGS)セグメンテーションは、映画やゲーム制作における事前構築された資産のリアルタイムな編集に不可欠である。
しかし、既存の手法は、事前に定義されたカメラの視点、地味ラベル、あるいはコストのかかる再訓練に依存しており、低レイテンシの使用には実用的ではない。
本研究では,B$^3$-Seg (Beta-Bernoulli Bayesian Segmentation for 3DGS)を提案する。
提案手法は, セグメンテーションを連続的なベータ・ベルヌーリベイズ更新として再構成し, 分析期待情報ゲイン(EIG)を用いて, 次のビューを積極的に選択する。
このベイズ的定式化は、EIGの適応的単調性と部分モジュラリティを保証し、最適なビューサンプリングポリシーへの1{-}1/e)$近似を生成する。
複数のデータセットの実験により、B$^3$-Segは、エンドツーエンドのセグメンテーションを数秒で運用しながら、高コストの教師付き手法と競合する結果が得られることが示された。
以上の結果から,B$^3$-Segは実用的でインタラクティブな3DGSセグメンテーションを可能にすることを示す。
関連論文リスト
- UniC-Lift: Unified 3D Instance Segmentation via Contrastive Learning [6.502142457981839]
3D Gaussian Splatting (3DGS) と Neural Radiance Fields (NeRF) は、先進的な新規なビュー合成を行っている。
近年の手法では,多視点2Dセグメンテーションを3Dに拡張し,シーン理解を向上するインスタンス/セグメンテーションを実現している。
主な課題は、ビュー間の2Dインスタンスラベルの不整合である。
本稿では,これらのステップをマージし,トレーニング時間を短縮し,ガウスプリミティブにセグメンテーションを組み込む学習可能な機能を導入することにより,パフォーマンスを向上させる統一フレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-31T10:20:01Z) - COB-GS: Clear Object Boundaries in 3DGS Segmentation Based on Boundary-Adaptive Gaussian Splitting [67.03992455145325]
3D Gaussian Splatting(3DGS)に基づく3Dセグメンテーションは、オブジェクトの境界を正確に記述するのに苦労する。
セグメンテーション精度の向上を目的とした3DGS(COB-GS)のためのクリアオブジェクト境界を導入する。
意味指導には境界適応型ガウス分割法を導入する。
視覚的最適化のために、3DGSシーンの劣化したテクスチャを補正する。
論文 参考訳(メタデータ) (2025-03-25T08:31:43Z) - Lifting by Gaussians: A Simple, Fast and Flexible Method for 3D Instance Segmentation [1.4307447044389736]
3次元ガウス散乱放射場(3DGS)のオープンワールドインスタンスセグメンテーションのための新しいアプローチを提案する。
提案手法は,2次元のセマンティックノベルビュー合成と3次元のアセット抽出結果に対して,優れたセマンティックセマンティックセグメンテーションを実現する。
論文 参考訳(メタデータ) (2025-01-31T21:30:59Z) - SAGD: Boundary-Enhanced Segment Anything in 3D Gaussian via Gaussian Decomposition [66.56357905500512]
3Dガウススプラッティングは、新しいビュー合成のための代替の3D表現として登場した。
SAGDは3D-GSのための概念的にシンプルで効果的な境界拡張パイプラインである。
提案手法は粗い境界問題なく高品質な3Dセグメンテーションを実現し,他のシーン編集作業にも容易に適用できる。
論文 参考訳(メタデータ) (2024-01-31T14:19:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。