論文の概要: TIBR4D: Tracing-Guided Iterative Boundary Refinement for Efficient 4D Gaussian Segmentation
- arxiv url: http://arxiv.org/abs/2602.08540v1
- Date: Mon, 09 Feb 2026 11:41:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.19728
- Title: TIBR4D: Tracing-Guided Iterative Boundary Refinement for Efficient 4D Gaussian Segmentation
- Title(参考訳): tracing-Guided Iterative boundary Refinement for Efficient 4D Gaussian Segmentation
- Authors: He Wu, Xia Yan, Yanghui Xu, Liegang Xia, Jiazhou Chen,
- Abstract要約: 映像分割マスクを4次元空間に引き上げる学習自由な4次元ガウス分割フレームワークを提案する。
第1段階は、時間セグメントレベルでの反復ガウスインスタンストレース(IGIT)である。
第2段階は、物体の境界付近で非常に不確実なガウスを抑えることにより、フレームワイドのガウスレンダリングレンジ制御(RCC)である。
HyperNeRFとNeu3Dの実験により,より明確な境界を持つ正確な物体ガウス点雲が得られた。
- 参考スコア(独自算出の注目度): 6.650237349474389
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object-level segmentation in dynamic 4D Gaussian scenes remains challenging due to complex motion, occlusions, and ambiguous boundaries. In this paper, we present an efficient learning-free 4D Gaussian segmentation framework that lifts video segmentation masks to 4D spaces, whose core is a two-stage iterative boundary refinement, TIBR4D. The first stage is an Iterative Gaussian Instance Tracing (IGIT) at the temporal segment level. It progressively refines Gaussian-to-instance probabilities through iterative tracing, and extracts corresponding Gaussian point clouds that better handle occlusions and preserve completeness of object structures compared to existing one-shot threshold-based methods. The second stage is a frame-wise Gaussian Rendering Range Control (RCC) via suppressing highly uncertain Gaussians near object boundaries while retaining their core contributions for more accurate boundaries. Furthermore, a temporal segmentation merging strategy is proposed for IGIT to balance identity consistency and dynamic awareness. Longer segments enforce stronger multi-frame constraints for stable identities, while shorter segments allow identity changes to be captured promptly. Experiments on HyperNeRF and Neu3D demonstrate that our method produces accurate object Gaussian point clouds with clearer boundaries and higher efficiency compared to SOTA methods.
- Abstract(参考訳): 動的4次元ガウスシーンにおけるオブジェクトレベルのセグメンテーションは、複雑な動き、閉塞、曖昧な境界のために依然として困難である。
本稿では,2段階の反復境界修正であるTIBR4Dのコアとなる4次元空間に映像分割マスクを持ち上げる,効率的な学習自由な4Dガウス分割フレームワークを提案する。
第1段階は、時間セグメントレベルでの反復ガウスインスタンストレース(IGIT)である。
反復的トレースによりガウスからインスタントへの確率を漸進的に洗練し、既存の一発しきい値法と比較して、オクルージョンをよりよく扱い、対象構造の完全性を保ったガウス点雲を抽出する。
第2段階は、より正確な境界に対するコアコントリビューションを維持しながら、オブジェクト境界付近で非常に不確実なガウスを抑えることによって、フレームワイドのガウスレンダリングレンジ制御(RCC)である。
さらに、ID整合性と動的認識のバランスをとるために、IGITに時間分割統合戦略を提案する。
より長いセグメントは安定したアイデンティティに対するより強いマルチフレーム制約を強制する一方、短いセグメントはアイデンティティの変更を素早くキャプチャすることを可能にする。
HyperNeRFとNeu3Dの実験により,SOTA法と比較して,より明確な境界と高い効率で正確な物体ガウス点雲を生成できることが実証された。
関連論文リスト
- UniC-Lift: Unified 3D Instance Segmentation via Contrastive Learning [6.502142457981839]
3D Gaussian Splatting (3DGS) と Neural Radiance Fields (NeRF) は、先進的な新規なビュー合成を行っている。
近年の手法では,多視点2Dセグメンテーションを3Dに拡張し,シーン理解を向上するインスタンス/セグメンテーションを実現している。
主な課題は、ビュー間の2Dインスタンスラベルの不整合である。
本稿では,これらのステップをマージし,トレーニング時間を短縮し,ガウスプリミティブにセグメンテーションを組み込む学習可能な機能を導入することにより,パフォーマンスを向上させる統一フレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-31T10:20:01Z) - Binary-Gaussian: Compact and Progressive Representation for 3D Gaussian Segmentation [83.90109373769614]
3D Gaussian Splatting (3D-GS)は効率的な3D表現として登場し、セグメンテーションのようなセグメンテーションタスクのための有望な基盤となっている。
本稿では,各特徴を2進数対決定写像によって1つの整数に圧縮する,ガウス単位のカテゴリ表現のための粗大なバイナリ符号化方式を提案する。
さらに,個別のサブタスクに分割し,クラス間の衝突を減らし,きめ細かいセグメンテーション能力を向上させるプログレッシブトレーニング戦略を設計する。
論文 参考訳(メタデータ) (2025-11-30T15:51:30Z) - Optimized Minimal 4D Gaussian Splatting [50.29519144753797]
4D Gaussian Splattingは動的シーン表現の新しいパラダイムとして登場し、複雑な動きを持つシーンのリアルタイムレンダリングを可能にした。
何百万人ものガウス人が高忠実度再構築を必要としているため、ストレージオーバーヘッドの大きな課題に直面している。
OMG4は、4次元ガウス模型を忠実に表現できる有能なガウスのコンパクトな集合を構成するフレームワークである。
論文 参考訳(メタデータ) (2025-10-04T16:11:13Z) - Trace3D: Consistent Segmentation Lifting via Gaussian Instance Tracing [27.24794829116753]
ガウススプラッティングにおける2次元視覚分割を3次元に引き上げることの課題に対処する。
既存の方法は、視界を横断する不整合な2Dマスクに悩まされ、うるさいセグメンテーション境界を生成する。
本稿では,標準ガウス表現を入力ビュー全体にわたってインスタンス重み行列で拡張するガウスインスタンス追跡(GIT)を紹介する。
論文 参考訳(メタデータ) (2025-08-05T08:54:17Z) - COB-GS: Clear Object Boundaries in 3DGS Segmentation Based on Boundary-Adaptive Gaussian Splitting [67.03992455145325]
3D Gaussian Splatting(3DGS)に基づく3Dセグメンテーションは、オブジェクトの境界を正確に記述するのに苦労する。
セグメンテーション精度の向上を目的とした3DGS(COB-GS)のためのクリアオブジェクト境界を導入する。
意味指導には境界適応型ガウス分割法を導入する。
視覚的最適化のために、3DGSシーンの劣化したテクスチャを補正する。
論文 参考訳(メタデータ) (2025-03-25T08:31:43Z) - GradiSeg: Gradient-Guided Gaussian Segmentation with Enhanced 3D Boundary Precision [11.99904956714193]
シーンのより深いセマンティックな理解を構築するためにアイデンティティーを組み込んだ新しい3DGSベースのフレームワークGradiSegを提案する。
提案手法では,Identity Gradient Guided Densification (IGD)とLocal Adaptive K-Nearest Neighbors (LA-KNN)の2つの重要なモジュールを導入している。
その結果,GradiSは境界問題に効果的に対応し,シーン再構成の品質を損なうことなくセグメンテーション精度を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-11-30T08:07:37Z) - SAGD: Boundary-Enhanced Segment Anything in 3D Gaussian via Gaussian Decomposition [66.56357905500512]
3Dガウススプラッティングは、新しいビュー合成のための代替の3D表現として登場した。
SAGDは3D-GSのための概念的にシンプルで効果的な境界拡張パイプラインである。
提案手法は粗い境界問題なく高品質な3Dセグメンテーションを実現し,他のシーン編集作業にも容易に適用できる。
論文 参考訳(メタデータ) (2024-01-31T14:19:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。