論文の概要: CoRe-GS: Coarse-to-Refined Gaussian Splatting with Semantic Object Focus
- arxiv url: http://arxiv.org/abs/2509.04859v2
- Date: Tue, 16 Sep 2025 08:36:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 15:46:32.979773
- Title: CoRe-GS: Coarse-to-Refined Gaussian Splatting with Semantic Object Focus
- Title(参考訳): CoRe-GS:意味的対象に焦点をあてた粗大なガウス分割
- Authors: Hannah Schieber, Dominik Frischmann, Victor Schaack, Simon Boche, Angela Schoellig, Stefan Leutenegger, Daniel Roth,
- Abstract要約: CoRe-GSはGaussian Splatting(GS)のセマンティックPOIにフォーカスした拡張である
CoRe-GSはまず、高速なセグメンテーション対応GS表現を生成し、次にデータ取得時に検出された意味的に関連するPOIに属するスプレートを選択的に洗練する。
この目標の洗練は、完全なセマンティックGSと比較してトレーニング時間を25%に短縮する。
- 参考スコア(独自算出の注目度): 11.571783968082343
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mobile reconstruction has the potential to support time-critical tasks such as tele-guidance and disaster response, where operators must quickly gain an accurate understanding of the environment. Full high-fidelity scene reconstruction is computationally expensive and often unnecessary when only specific points of interest (POIs) matter for timely decision making. We address this challenge with CoRe-GS, a semantic POI-focused extension of Gaussian Splatting (GS). Instead of optimizing every scene element uniformly, CoRe-GS first produces a fast segmentation-ready GS representation and then selectively refines splats belonging to semantically relevant POIs detected during data acquisition. This targeted refinement reduces training time to 25\% compared to full semantic GS while improving novel view synthesis quality in the areas that matter most. We validate CoRe-GS on both real-world (SCRREAM) and synthetic (NeRDS 360) datasets, demonstrating that prioritizing POIs enables faster and higher-quality mobile reconstruction tailored to operational needs.
- Abstract(参考訳): 移動型リコンストラクションは,遠隔誘導や災害対応などの時間的クリティカルなタスクをサポートする可能性があり,オペレーターは環境の正確な理解を迅速に得る必要がある。
高忠実度シーンの完全な再構築は、時間的決定のための特定のポイント(POIs)だけが重要な場合、計算コストが高く、しばしば不要である。
この課題に対処するCoRe-GSは,ガウススティング(GS)のセマンティックPOIにフォーカスした拡張である。
すべてのシーン要素を均一に最適化する代わりに、CoRe-GSはまず高速なセグメンテーション対応GS表現を生成し、次にデータ取得時に検出された意味的に関連するPOIに属するスプレートを選択的に洗練する。
この目標の洗練は、トレーニング時間をフルセマンティックGSと比較して25%削減し、最も重要な領域における新規なビュー合成品質を改善した。
我々は,実世界(SCRREAM)と合成(NeRDS 360)の両方のデータセット上でCoRe-GSを検証する。
関連論文リスト
- ConeGS: Error-Guided Densification Using Pixel Cones for Improved Reconstruction with Fewer Primitives [27.616880434926646]
3D Gaussian Splattingは、新しいビュー合成における最先端の画像品質とリアルタイム性能を実現する。
問題は、既存の幾何学に沿ってガウスを伝播させるクローンベースの密度化に起因している。
本研究では,既存のシーン形状に依存しない画像空間インフォームド・デンシフィケーション・フレームワークであるConeGSについて述べる。
論文 参考訳(メタデータ) (2025-11-10T07:54:58Z) - Edge Collaborative Gaussian Splatting with Integrated Rendering and Communication [69.23838350582764]
エッジ協調(ECO-GS)では,各ユーザが小さなGSモデルに切り替えて忠実さを保証し,遠隔大GSモデルで忠実さを保証できる。
低コストのレンダリングステータスとエッジパワー割り当てを協調的に最適化する統合通信(IRAC)を提案する。
論文 参考訳(メタデータ) (2025-10-26T15:33:29Z) - ObjectGS: Object-aware Scene Reconstruction and Scene Understanding via Gaussian Splatting [54.92763171355442]
ObjectGSは3Dシーンをセマンティックな理解と統合するオブジェクト認識フレームワークである。
我々はObjectGSがオープンボキャブラリやパン光学のセグメンテーションタスクにおいて最先端の手法より優れていることを示す実験を通して示す。
論文 参考訳(メタデータ) (2025-07-21T10:06:23Z) - RGE-GS: Reward-Guided Expansive Driving Scene Reconstruction via Diffusion Priors [54.81109375939306]
RGE-GSは、拡散に基づく生成と報酬誘導ガウス積分を相乗化する新しい拡張的再構築フレームワークである。
本稿では,復元フェーズに先立って一貫したパターンを識別・優先順位付けする報奨ネットワークを提案する。
復元過程において,シーン収束度に応じてガウス最適化の進捗を自動的に調整する学習戦略を考案した。
論文 参考訳(メタデータ) (2025-06-28T08:02:54Z) - CL-Splats: Continual Learning of Gaussian Splatting with Local Optimization [80.3004354618963]
本稿では,スパースシーンキャプチャから3次元表現を漸進的に更新するCL-Splatを紹介した。
CL-Splatsは、シーン内のアップデートと静的コンポーネントをセグメント化する堅牢な変更検出モジュールを統合する。
本実験により, CL-Splats は, 最先端の再構築品質を向上し, 効率的な更新を実現することを示した。
論文 参考訳(メタデータ) (2025-06-26T09:32:37Z) - SplArt: Articulation Estimation and Part-Level Reconstruction with 3D Gaussian Splatting [15.098827709119087]
SplArtは,2組のRGB画像から調音対象を再構成し,キネマティクスを推定する,自己教師型カテゴリー認識フレームワークである。
SplArtは幾何学的自己スーパービジョンを利用して、3Dアノテーションやカテゴリ固有の事前処理を必要とせずに、困難なシナリオに効果的に対処する。
確立された、新しく提案されたベンチマークの評価と、ハンドヘルドのRGBカメラを用いた実世界のシナリオへの応用は、SplArtの最先端のパフォーマンスと実世界の実用性を実証している。
論文 参考訳(メタデータ) (2025-06-04T05:53:16Z) - MetaGen Blended RAG: Unlocking Zero-Shot Precision for Specialized Domain Question-Answering [0.0]
本稿では, セマンティック検索機能を強化した新しいエンタープライズ検索手法である「MetaGen Blended RAG」を紹介する。
重要な概念,トピック,頭字語を活用することで,メタデータに富んだセマンティックインデックスと,ハイブリッドクエリの強化を実現した。
バイオメディカルなPubMedQAデータセットでは、MetaGen Blended RAGが82%の検索精度と77%のRAG精度を実現し、以前のゼロショットRAGベンチマークを上回りました。
論文 参考訳(メタデータ) (2025-05-23T17:18:45Z) - GS-LTS: 3D Gaussian Splatting-Based Adaptive Modeling for Long-Term Service Robots [33.19663755125912]
3D Gaussian Splatting (3DGS)は、ロボット工学において、鮮明で高忠実なシーン表現のために大きな注目を集めている。
室内ロボットによる動的環境における多様なタスクの時間的管理を可能にする3DGSベースのシステムであるGS-LTSを提案する。
論文 参考訳(メタデータ) (2025-03-22T11:26:47Z) - MGSR: 2D/3D Mutual-boosted Gaussian Splatting for High-fidelity Surface Reconstruction under Various Light Conditions [6.4367384921445545]
新しいビュー合成(NVS)と表面再構成(SR)は3次元ガウススプラッティングにおける必須課題である(3D-GS)
表示品質と3次元再構成精度を両立させる表面再構成用2D/3D多孔型ガウススプラッティングであるMGSRを提案する。
我々はMGSRをオブジェクトレベルとシーンレベルの両方において、多種多様な合成および実世界のデータセットで評価し、レンダリングおよび表面再構成において高い性能を示す。
論文 参考訳(メタデータ) (2025-03-07T07:06:47Z) - Chain-of-Retrieval Augmented Generation [91.02950964802454]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - SpotlessSplats: Ignoring Distractors in 3D Gaussian Splatting [44.42317312908314]
3D Gaussian Splatting (3DGS)は、3D再構成のための有望な技術であり、効率的なトレーニングとレンダリング速度を提供する。
現在の手法では、3DGSのビュー間の一貫性の仮定を満たすために、高度に制御された環境が必要である。
SpotLessSplatsは、トレーニング済みと汎用の機能と頑健な最適化を併用して、過渡的障害を効果的に無視するアプローチである。
論文 参考訳(メタデータ) (2024-06-28T17:07:11Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [58.41056963451056]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z) - Revisiting the Encoding of Satellite Image Time Series [2.5874041837241304]
画像時系列(SITS)時間学習は、高時間分解能と不規則な取得時間のために複雑である。
我々は、クエリベースのトランスフォーマーデコーダを採用する最近のトレンドに触発されて、直接セット予測問題としてSITS処理の新たな視点を開発する。
衛星PASTISベンチマークデータセットを用いて,SOTA(State-of-the-art)の新たな結果を得た。
論文 参考訳(メタデータ) (2023-05-03T12:44:20Z) - Grounded Situation Recognition [56.18102368133022]
画像の構造的要約を生成することを必要とする課題であるグラウンドドコンディション認識(GSR)を導入する。
GSRはセマンティック・サリエンシの識別、大規模で多様なエンティティの分類とローカライズという重要な技術的課題を提示している。
我々は,条件付きクエリ,視覚連鎖,接地型セマンティック・アウェアネス・イメージ検索の3つのモデルによって実現される3つの将来方向について,最初の知見を示す。
論文 参考訳(メタデータ) (2020-03-26T17:57:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。