論文の概要: CoRe-GS: Coarse-to-Refined Gaussian Splatting with Semantic Object Focus
- arxiv url: http://arxiv.org/abs/2509.04859v2
- Date: Tue, 16 Sep 2025 08:36:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 15:46:32.979773
- Title: CoRe-GS: Coarse-to-Refined Gaussian Splatting with Semantic Object Focus
- Title(参考訳): CoRe-GS:意味的対象に焦点をあてた粗大なガウス分割
- Authors: Hannah Schieber, Dominik Frischmann, Victor Schaack, Simon Boche, Angela Schoellig, Stefan Leutenegger, Daniel Roth,
- Abstract要約: CoRe-GSはGaussian Splatting(GS)のセマンティックPOIにフォーカスした拡張である
CoRe-GSはまず、高速なセグメンテーション対応GS表現を生成し、次にデータ取得時に検出された意味的に関連するPOIに属するスプレートを選択的に洗練する。
この目標の洗練は、完全なセマンティックGSと比較してトレーニング時間を25%に短縮する。
- 参考スコア(独自算出の注目度): 11.571783968082343
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mobile reconstruction has the potential to support time-critical tasks such as tele-guidance and disaster response, where operators must quickly gain an accurate understanding of the environment. Full high-fidelity scene reconstruction is computationally expensive and often unnecessary when only specific points of interest (POIs) matter for timely decision making. We address this challenge with CoRe-GS, a semantic POI-focused extension of Gaussian Splatting (GS). Instead of optimizing every scene element uniformly, CoRe-GS first produces a fast segmentation-ready GS representation and then selectively refines splats belonging to semantically relevant POIs detected during data acquisition. This targeted refinement reduces training time to 25\% compared to full semantic GS while improving novel view synthesis quality in the areas that matter most. We validate CoRe-GS on both real-world (SCRREAM) and synthetic (NeRDS 360) datasets, demonstrating that prioritizing POIs enables faster and higher-quality mobile reconstruction tailored to operational needs.
- Abstract(参考訳): 移動型リコンストラクションは,遠隔誘導や災害対応などの時間的クリティカルなタスクをサポートする可能性があり,オペレーターは環境の正確な理解を迅速に得る必要がある。
高忠実度シーンの完全な再構築は、時間的決定のための特定のポイント(POIs)だけが重要な場合、計算コストが高く、しばしば不要である。
この課題に対処するCoRe-GSは,ガウススティング(GS)のセマンティックPOIにフォーカスした拡張である。
すべてのシーン要素を均一に最適化する代わりに、CoRe-GSはまず高速なセグメンテーション対応GS表現を生成し、次にデータ取得時に検出された意味的に関連するPOIに属するスプレートを選択的に洗練する。
この目標の洗練は、トレーニング時間をフルセマンティックGSと比較して25%削減し、最も重要な領域における新規なビュー合成品質を改善した。
我々は,実世界(SCRREAM)と合成(NeRDS 360)の両方のデータセット上でCoRe-GSを検証する。
関連論文リスト
- ObjectGS: Object-aware Scene Reconstruction and Scene Understanding via Gaussian Splatting [54.92763171355442]
ObjectGSは3Dシーンをセマンティックな理解と統合するオブジェクト認識フレームワークである。
我々はObjectGSがオープンボキャブラリやパン光学のセグメンテーションタスクにおいて最先端の手法より優れていることを示す実験を通して示す。
論文 参考訳(メタデータ) (2025-07-21T10:06:23Z) - SplArt: Articulation Estimation and Part-Level Reconstruction with 3D Gaussian Splatting [15.098827709119087]
SplArtは,2組のRGB画像から調音対象を再構成し,キネマティクスを推定する,自己教師型カテゴリー認識フレームワークである。
SplArtは幾何学的自己スーパービジョンを利用して、3Dアノテーションやカテゴリ固有の事前処理を必要とせずに、困難なシナリオに効果的に対処する。
確立された、新しく提案されたベンチマークの評価と、ハンドヘルドのRGBカメラを用いた実世界のシナリオへの応用は、SplArtの最先端のパフォーマンスと実世界の実用性を実証している。
論文 参考訳(メタデータ) (2025-06-04T05:53:16Z) - GS-LTS: 3D Gaussian Splatting-Based Adaptive Modeling for Long-Term Service Robots [33.19663755125912]
3D Gaussian Splatting (3DGS)は、ロボット工学において、鮮明で高忠実なシーン表現のために大きな注目を集めている。
室内ロボットによる動的環境における多様なタスクの時間的管理を可能にする3DGSベースのシステムであるGS-LTSを提案する。
論文 参考訳(メタデータ) (2025-03-22T11:26:47Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - SpotlessSplats: Ignoring Distractors in 3D Gaussian Splatting [44.42317312908314]
3D Gaussian Splatting (3DGS)は、3D再構成のための有望な技術であり、効率的なトレーニングとレンダリング速度を提供する。
現在の手法では、3DGSのビュー間の一貫性の仮定を満たすために、高度に制御された環境が必要である。
SpotLessSplatsは、トレーニング済みと汎用の機能と頑健な最適化を併用して、過渡的障害を効果的に無視するアプローチである。
論文 参考訳(メタデータ) (2024-06-28T17:07:11Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [58.41056963451056]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。