論文の概要: CoRe-GS: Coarse-to-Refined Gaussian Splatting with Semantic Object Focus
- arxiv url: http://arxiv.org/abs/2509.04859v1
- Date: Fri, 05 Sep 2025 07:21:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.504769
- Title: CoRe-GS: Coarse-to-Refined Gaussian Splatting with Semantic Object Focus
- Title(参考訳): CoRe-GS:意味的対象に焦点をあてた粗大なガウス分割
- Authors: Hannah Schieber, Dominik Frischmann, Simon Boche, Victor Schaack, Angela Schoellig, Stefan Leutenegger, Daniel Roth,
- Abstract要約: 特定の対象、すなわち関心の点(PoI)に焦点を合わせる方が効率的であることが多い。
先進的なセンサーを備えた移動ロボットは、データ取得や予備分析の間、これらを早期に検出することができる。
トレーニング時間を短縮して高品質な再構築を両立させるため,CoRe-GSを提案する。
- 参考スコア(独自算出の注目度): 11.571783968082343
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mobile reconstruction for autonomous aerial robotics holds strong potential for critical applications such as tele-guidance and disaster response. These tasks demand both accurate 3D reconstruction and fast scene processing. Instead of reconstructing the entire scene in detail, it is often more efficient to focus on specific objects, i.e., points of interest (PoIs). Mobile robots equipped with advanced sensing can usually detect these early during data acquisition or preliminary analysis, reducing the need for full-scene optimization. Gaussian Splatting (GS) has recently shown promise in delivering high-quality novel view synthesis and 3D representation by an incremental learning process. Extending GS with scene editing, semantics adds useful per-splat features to isolate objects effectively. Semantic 3D Gaussian editing can already be achieved before the full training cycle is completed, reducing the overall training time. Moreover, the semantically relevant area, the PoI, is usually already known during capturing. To balance high-quality reconstruction with reduced training time, we propose CoRe-GS. We first generate a coarse segmentation-ready scene with semantic GS and then refine it for the semantic object using our novel color-based effective filtering for effective object isolation. This is speeding up the training process to be about a quarter less than a full training cycle for semantic GS. We evaluate our approach on two datasets, SCRREAM (real-world, outdoor) and NeRDS 360 (synthetic, indoor), showing reduced runtime and higher novel-view-synthesis quality.
- Abstract(参考訳): 自律型無人ロボットのための移動体再構築は、遠隔誘導や災害対応といった重要な応用に強い可能性を秘めている。
これらのタスクは正確な3D再構成と高速なシーン処理の両方を必要とする。
シーン全体を詳細に再構築するのではなく、特定のオブジェクト、すなわち関心のポイント(PoI)にフォーカスする方が効率的であることが多い。
高度なセンサーを備えた移動ロボットは、データ取得や予備分析の早い段階でこれらのことを検出でき、フルシーン最適化の必要性が軽減される。
Gaussian Splatting (GS)は、漸進的な学習プロセスにより、高品質な新規ビュー合成と3D表現を提供するという約束を最近示した。
シーン編集でGSを拡張することで、セマンティクスはオブジェクトを効果的に分離するために、splatごとの便利な機能を追加する。
セマンティック3Dガウス編集は、完全なトレーニングサイクルが完了する前に既に達成でき、全体のトレーニング時間を短縮できる。
さらに、意味的に関連する領域であるPoIは、キャプチャ中にすでに知られている。
トレーニング時間を短縮して高品質な再構築を両立させるため,CoRe-GSを提案する。
まずセグメンテーション対応の粗いシーンをセグメンテーションGSで生成し、新しいカラーベース有効フィルタリングを用いてセグメンテーションを改良し、効果的なオブジェクト分離を行う。
これにより、トレーニングプロセスのスピードは、セマンティックGSのトレーニングサイクル全体の約4分の1以下になる。
SCRREAM (real-world, outdoor) とNERDS 360 (synthetic, indoor) の2つのデータセットに対するアプローチの評価を行った。
関連論文リスト
- ObjectGS: Object-aware Scene Reconstruction and Scene Understanding via Gaussian Splatting [54.92763171355442]
ObjectGSは3Dシーンをセマンティックな理解と統合するオブジェクト認識フレームワークである。
我々はObjectGSがオープンボキャブラリやパン光学のセグメンテーションタスクにおいて最先端の手法より優れていることを示す実験を通して示す。
論文 参考訳(メタデータ) (2025-07-21T10:06:23Z) - SplArt: Articulation Estimation and Part-Level Reconstruction with 3D Gaussian Splatting [15.098827709119087]
SplArtは,2組のRGB画像から調音対象を再構成し,キネマティクスを推定する,自己教師型カテゴリー認識フレームワークである。
SplArtは幾何学的自己スーパービジョンを利用して、3Dアノテーションやカテゴリ固有の事前処理を必要とせずに、困難なシナリオに効果的に対処する。
確立された、新しく提案されたベンチマークの評価と、ハンドヘルドのRGBカメラを用いた実世界のシナリオへの応用は、SplArtの最先端のパフォーマンスと実世界の実用性を実証している。
論文 参考訳(メタデータ) (2025-06-04T05:53:16Z) - GS-LTS: 3D Gaussian Splatting-Based Adaptive Modeling for Long-Term Service Robots [33.19663755125912]
3D Gaussian Splatting (3DGS)は、ロボット工学において、鮮明で高忠実なシーン表現のために大きな注目を集めている。
室内ロボットによる動的環境における多様なタスクの時間的管理を可能にする3DGSベースのシステムであるGS-LTSを提案する。
論文 参考訳(メタデータ) (2025-03-22T11:26:47Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - SpotlessSplats: Ignoring Distractors in 3D Gaussian Splatting [44.42317312908314]
3D Gaussian Splatting (3DGS)は、3D再構成のための有望な技術であり、効率的なトレーニングとレンダリング速度を提供する。
現在の手法では、3DGSのビュー間の一貫性の仮定を満たすために、高度に制御された環境が必要である。
SpotLessSplatsは、トレーニング済みと汎用の機能と頑健な最適化を併用して、過渡的障害を効果的に無視するアプローチである。
論文 参考訳(メタデータ) (2024-06-28T17:07:11Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [58.41056963451056]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。