論文の概要: GS-LTS: 3D Gaussian Splatting-Based Adaptive Modeling for Long-Term Service Robots
- arxiv url: http://arxiv.org/abs/2503.17733v1
- Date: Sat, 22 Mar 2025 11:26:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:34:21.749403
- Title: GS-LTS: 3D Gaussian Splatting-Based Adaptive Modeling for Long-Term Service Robots
- Title(参考訳): GS-LTS:長期サービスロボットの3次元ガウス平滑化に基づく適応モデリング
- Authors: Bin Fu, Jialin Li, Bin Zhang, Ruiping Wang, Xilin Chen,
- Abstract要約: 3D Gaussian Splatting (3DGS)は、ロボット工学において、鮮明で高忠実なシーン表現のために大きな注目を集めている。
室内ロボットによる動的環境における多様なタスクの時間的管理を可能にする3DGSベースのシステムであるGS-LTSを提案する。
- 参考スコア(独自算出の注目度): 33.19663755125912
- License:
- Abstract: 3D Gaussian Splatting (3DGS) has garnered significant attention in robotics for its explicit, high fidelity dense scene representation, demonstrating strong potential for robotic applications. However, 3DGS-based methods in robotics primarily focus on static scenes, with limited attention to the dynamic scene changes essential for long-term service robots. These robots demand sustained task execution and efficient scene updates-challenges current approaches fail to meet. To address these limitations, we propose GS-LTS (Gaussian Splatting for Long-Term Service), a 3DGS-based system enabling indoor robots to manage diverse tasks in dynamic environments over time. GS-LTS detects scene changes (e.g., object addition or removal) via single-image change detection, employs a rule-based policy to autonomously collect multi-view observations, and efficiently updates the scene representation through Gaussian editing. Additionally, we propose a simulation-based benchmark that automatically generates scene change data as compact configuration scripts, providing a standardized, user-friendly evaluation benchmark. Experimental results demonstrate GS-LTS's advantages in reconstruction, navigation, and superior scene updates-faster and higher quality than the image training baseline-advancing 3DGS for long-term robotic operations. Code and benchmark are available at: https://vipl-vsu.github.io/3DGS-LTS.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は、ロボット工学において、その明快で高忠実で高密度なシーン表現のために大きな注目を集めており、ロボット応用の可能性を示している。
しかし、ロボット工学における3DGSベースの手法は、主に静的なシーンに焦点を当てており、長期サービスロボットにとって不可欠な動的シーンの変化に注意が向けられている。
これらのロボットは、持続的なタスク実行と効率的なシーン更新を要求するが、現在のアプローチは満たせない。
これらの制約に対処するために,室内ロボットによる動的環境における多様なタスクの時間的管理を可能にする3DGSベースのシステムであるGS-LTS(Gaussian Splatting for Long-Term Service)を提案する。
GS-LTSは、単一イメージの変更検出を通じてシーン変更(例えば、オブジェクトの追加や削除)を検出し、ルールベースのポリシーを使用して、マルチビューの観察を自律的に収集し、ガウス編集によってシーン表現を効率的に更新する。
さらに,シーン変更データをコンパクトな構成スクリプトとして自動生成するシミュレーションベースのベンチマークを提案し,ユーザフレンドリな評価ベンチマークを提供する。
画像トレーニングベースライン向上型3DGSの長期ロボット操作に比べて, GS-LTSの再現性, ナビゲーション性, シーン更新性の向上, 品質の向上を実証した。
コードとベンチマークは、https://vipl-vsu.github.io/3DGS-LTS.orgで公開されている。
関連論文リスト
- EGSRAL: An Enhanced 3D Gaussian Splatting based Renderer with Automated Labeling for Large-Scale Driving Scene [19.20846992699852]
EGSRALは3D GSベースの手法で、追加のアノテーションを使わずに画像のトレーニングにのみ依存する。
EGSRALは、動的オブジェクトと静的バックグラウンドの両方をモデル化する3D GSの機能を強化する。
また,大規模な複雑なシーンをレンダリングする際の視点問題に対処するために,バニラ3D GSのグルーピング戦略を提案する。
論文 参考訳(メタデータ) (2024-12-20T04:21:54Z) - HybridGS: Decoupling Transients and Statics with 2D and 3D Gaussian Splatting [47.67153284714988]
画像ごとの過渡的対象に対して2次元ガウスアンを用いて,ハイブリッドGSと呼ばれる新しいハイブリッド表現を提案する。
また、ロバストなトレーニングと高品質なビュー合成を実現するために、単純かつ効果的なマルチステージトレーニング戦略を提案する。
ベンチマークデータセットを用いた実験は、室内および屋外の両方のシーンにおいて、新しいビュー合成の最先端性能を示す。
論文 参考訳(メタデータ) (2024-12-05T03:20:35Z) - SparseGrasp: Robotic Grasping via 3D Semantic Gaussian Splatting from Sparse Multi-View RGB Images [125.66499135980344]
オープンボキャブラリ型ロボットグリップシステムであるSparseGraspを提案する。
SparseGraspはスパースビューのRGBイメージで効率的に動作し、シーン更新を高速に処理する。
SparseGraspは, 高速化と適応性の両方の観点から, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-12-03T03:56:01Z) - Next Best Sense: Guiding Vision and Touch with FisherRF for 3D Gaussian Splatting [27.45827655042124]
3Dガウススプレイティングを用いたロボットマニピュレータの能動的次ベストビューとタッチ選択のためのフレームワーク(3DGS)を提案する。
我々はまず,新しい意味深度アライメント法により,数発の3DGSの性能を向上する。
次に、3DGSの次のベストビュー選択方法であるFisherRFを拡張して、奥行きの不確実性に基づいたビューとタッチポーズを選択する。
論文 参考訳(メタデータ) (2024-10-07T01:24:39Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - SAM-E: Leveraging Visual Foundation Model with Sequence Imitation for Embodied Manipulation [62.58480650443393]
Segment Anything (SAM) は、一般化可能なシーン理解とシーケンス模倣のための視覚境界モデルである。
我々は,単一パスにおけるアクションシーケンスの予測を可能にする,新しいマルチチャネルヒートマップを開発した。
論文 参考訳(メタデータ) (2024-05-30T00:32:51Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - CoGS: Controllable Gaussian Splatting [5.909271640907126]
制御可能なガウススプラッティング(CoGS)は3次元構造のキャプチャと再アニメーションのための新しい手法である。
CoGSは、事前計算された制御信号の必要なく、動的シーンをリアルタイムに制御する。
我々の評価では、CoGSは視覚的忠実度の観点から、既存の動的および制御可能なニューラル表現よりも一貫して優れていた。
論文 参考訳(メタデータ) (2023-12-09T20:06:29Z) - SG-Bot: Object Rearrangement via Coarse-to-Fine Robotic Imagination on Scene Graphs [81.15889805560333]
本稿では,新しいアレンジメントフレームワークであるSG-Botを紹介する。
SG-Botは軽量でリアルタイムでユーザ制御可能な特性を実証する。
実験の結果、SG-Botはライバルよりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-09-21T15:54:33Z) - 3D VSG: Long-term Semantic Scene Change Prediction through 3D Variable
Scene Graphs [29.898086255614484]
セマンティックシーンの変動度推定のタスクを形式化する。
対象物の位置の変化、意味状態の変化、シーン全体の構成の3つの主な種類を識別する。
そこで本研究では,VSGの多様性を教師付き方式で推定する新しい手法であるDeltaVSGを提案する。
論文 参考訳(メタデータ) (2022-09-16T12:41:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。