論文の概要: ReaDy-Go: Real-to-Sim Dynamic 3D Gaussian Splatting Simulation for Environment-Specific Visual Navigation with Moving Obstacles
- arxiv url: http://arxiv.org/abs/2602.11575v1
- Date: Thu, 12 Feb 2026 04:48:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.645149
- Title: ReaDy-Go: Real-to-Sim Dynamic 3D Gaussian Splatting Simulation for Environment-Specific Visual Navigation with Moving Obstacles
- Title(参考訳): ReaDy-Go: 移動障害物を用いた環境特異的視覚ナビゲーションのための実次元動的3次元ガウス散乱シミュレーション
- Authors: Seungyeon Yoo, Youngseok Jang, Dabin Kim, Youngsoo Han, Seungwoo Jung, H. Jin Kim,
- Abstract要約: 本研究では,ターゲット環境の動的シナリオを合成するシミュレーションパイプラインReaDy-Goを提案する。
ReaDy-Goは、再構成された静的GSシーンと動的な人間のGS障害物を組み合わせることで、動的環境のためのフォトリアリスティックナビゲーションデータセットを生成する。
ReaDy-Goはシミュレーションと実世界の両方の実験において、ターゲット環境のベースラインを上回っている。
- 参考スコア(独自算出の注目度): 18.27305975041577
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual navigation models often struggle in real-world dynamic environments due to limited robustness to the sim-to-real gap and the difficulty of training policies tailored to target deployment environments (e.g., households, restaurants, and factories). Although real-to-sim navigation simulation using 3D Gaussian Splatting (GS) can mitigate this gap, prior works have assumed only static scenes or unrealistic dynamic obstacles, despite the importance of safe navigation in dynamic environments. To address these issues, we propose ReaDy-Go, a novel real-to-sim simulation pipeline that synthesizes photorealistic dynamic scenarios for target environments. ReaDy-Go generates photorealistic navigation datasets for dynamic environments by combining a reconstructed static GS scene with dynamic human GS obstacles, and trains policies robust to both the sim-to-real gap and moving obstacles. The pipeline consists of three components: (1) a dynamic GS simulator that integrates scene GS with a human animation module, enabling the insertion of animatable human GS avatars and the synthesis of plausible human motions from 2D trajectories, (2) navigation dataset generation for dynamic environments that leverages the simulator, a robot expert planner designed for dynamic GS representations, and a human planner, and (3) policy learning using the generated datasets. ReaDy-Go outperforms baselines across target environments in both simulation and real-world experiments, demonstrating improved navigation performance even after sim-to-real transfer and in the presence of moving obstacles. Moreover, zero-shot sim-to-real deployment in an unseen environment indicates its generalization potential. Project page: https://syeon-yoo.github.io/ready-go-site/.
- Abstract(参考訳): ビジュアルナビゲーションモデルは、シム・トゥ・リアルのギャップに対するロバスト性や、配置環境(世帯、レストラン、工場など)をターゲットにしたトレーニングポリシーの難しさにより、現実の動的環境に苦しむことが多い。
3D Gaussian Splatting (GS) を用いたリアルタイムナビゲーションシミュレーションは、このギャップを軽減することができるが、従来の研究では、動的環境における安全なナビゲーションの重要性にもかかわらず、静的なシーンや非現実的なダイナミック障害のみを前提としていた。
これらの問題に対処するために、ターゲット環境の光現実的動的シナリオを合成する、新しいリアルタイムシミュレーションパイプラインReaDy-Goを提案する。
ReaDy-Goは、再構成された静的GSシーンと動的な人間のGS障害物を組み合わせることで、動的環境のためのフォトリアリスティックナビゲーションデータセットを生成し、sim-to-realギャップと移動障害物の両方にロバストなポリシーを訓練する。
このパイプラインは,(1)シーンGSと人間のアニメーションモジュールを一体化した動的GSシミュレータ,(2)アニメーションを利用する動的環境のためのナビゲーションデータセット生成,(2)動的GS表現用に設計されたロボット専門家プランナー,(3)生成したデータセットを用いたポリシー学習,の3つの構成要素から構成される。
ReaDy-Goはシミュレーションと実世界の実験の両方において、ターゲット環境のベースラインよりも優れており、シミュレート・トゥ・リアル・トランスファー後のナビゲーション性能の向上と、移動障害物の存在下でのナビゲーション性能の向上を実証している。
さらに、目に見えない環境でのゼロショットsim-to-realデプロイメントは、その一般化可能性を示している。
プロジェクトページ:https://syeon-yoo.github.io/ready-go-site/。
関連論文リスト
- Mirage2Matter: A Physically Grounded Gaussian World Model from Video [87.9732484393686]
我々は、グラフィック駆動の世界モデリングおよびシミュレーションフレームワークであるSimulate Anythingを紹介する。
実世界の環境を3次元ガウススプレイティング(3DGS)による写実的シーン表現に再構築する。
次に、生成モデルを利用して、物理的に現実的な表現を復元し、精度校正ターゲットを介してシミュレーション環境に統合する。
論文 参考訳(メタデータ) (2026-01-24T07:43:57Z) - EmbodiedSplat: Personalized Real-to-Sim-to-Real Navigation with Gaussian Splats from a Mobile Device [33.22697339175522]
Embodied AIは主に、トレーニングと評価のシミュレーションに頼っている。
シン・トゥ・リアル・トランスファーは依然として大きな課題だ。
EmbodiedSplatは、ポリシートレーニングをパーソナライズする新しいアプローチである。
論文 参考訳(メタデータ) (2025-09-22T07:22:31Z) - VR-Robo: A Real-to-Sim-to-Real Framework for Visual Robot Navigation and Locomotion [25.440573256776133]
本稿では,視覚ナビゲーションと移動学習のための物理的にインタラクティブな「デジタルツイン」シミュレーション環境を生成する,リアル・ツー・シム・トゥ・リアルのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-03T17:15:05Z) - Vid2Sim: Realistic and Interactive Simulation from Video for Urban Navigation [62.5805866419814]
Vid2Simは、ニューラル3Dシーンの再構築とシミュレーションのためのスケーラブルで費用効率のよいReal2simパイプラインを通じてsim2realギャップをブリッジする新しいフレームワークである。
実験により、Vid2Simはデジタル双生児と現実世界の都市ナビゲーションの性能を31.2%、成功率68.3%で大幅に改善することが示された。
論文 参考訳(メタデータ) (2025-01-12T03:01:15Z) - OmniRe: Omni Urban Scene Reconstruction [78.99262488964423]
OmniReはデバイス上でのログから動的現実シーンの高忠実なデジタルツインを作成するための総合システムである。
提案手法は3DGS上にシーングラフを構築し,様々な動的アクターをモデル化する標準空間内に複数のガウス表現を構築する。
論文 参考訳(メタデータ) (2024-08-29T17:56:33Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - GeoSim: Photorealistic Image Simulation with Geometry-Aware Composition [81.24107630746508]
GeoSimは、新しい都市の運転シーンを合成するジオメトリ認識の画像合成プロセスです。
まず、センサーデータからリアルな形状と外観の両方を備えた多様な3Dオブジェクトのバンクを構築します。
得られた合成画像は、フォトリアリズム、トラフィック認識、幾何学的一貫性があり、画像シミュレーションが複雑なユースケースにスケールできる。
論文 参考訳(メタデータ) (2021-01-16T23:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。