論文の概要: NVSim: Novel View Synthesis Simulator for Large Scale Indoor Navigation
- arxiv url: http://arxiv.org/abs/2510.24335v1
- Date: Tue, 28 Oct 2025 11:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 17:50:20.184425
- Title: NVSim: Novel View Synthesis Simulator for Large Scale Indoor Navigation
- Title(参考訳): NVSim:大規模屋内ナビゲーションのためのビュー合成シミュレータ
- Authors: Mingyu Jeong, Eunsung Kim, Sehun Park, Andrew Jaeyong Choi,
- Abstract要約: NVSimは,一般的な画像列のみから大規模でナビゲート可能な屋内シミュレータを自動構築するフレームワークである。
クリーンでナビゲーション可能な地上面と,メッシュフリーなトラバーサビリティチェックアルゴリズムを実現するために,Floor-Aware Gaussian Splattingを導入する。
実世界のデータから有効な大規模ナビゲーショングラフを生成する能力を示す。
- 参考スコア(独自算出の注目度): 0.39198548406564604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present NVSim, a framework that automatically constructs large-scale, navigable indoor simulators from only common image sequences, overcoming the cost and scalability limitations of traditional 3D scanning. Our approach adapts 3D Gaussian Splatting to address visual artifacts on sparsely observed floors a common issue in robotic traversal data. We introduce Floor-Aware Gaussian Splatting to ensure a clean, navigable ground plane, and a novel mesh-free traversability checking algorithm that constructs a topological graph by directly analyzing rendered views. We demonstrate our system's ability to generate valid, large-scale navigation graphs from real-world data. A video demonstration is avilable at https://youtu.be/tTiIQt6nXC8
- Abstract(参考訳): NVSimは、従来の3Dスキャンのコストとスケーラビリティの限界を克服し、一般的な画像シーケンスのみから大規模でナビゲート可能な屋内シミュレータを自動構築するフレームワークである。
提案手法は3次元ガウシアン・スプラッティングを応用し, わずかに観察された床の視覚的アーチファクトに対処することが, ロボットの移動データにおいて一般的な問題である。
本研究では,クリーンでナビゲート可能な地上面を確保するためにフロア・アウェア・ガウシアン・スプラッティングと,描画されたビューを直接解析してトポロジカルグラフを構築するメッシュフリートラバーサビリティ・チェックアルゴリズムを導入する。
実世界のデータから有効な大規模ナビゲーショングラフを生成する能力を示す。
ビデオデモはhttps://youtu.be/tTiIQt6nXC8で悪くなる
関連論文リスト
- GaussGym: An open-source real-to-sim framework for learning locomotion from pixels [78.05453137978132]
本稿では,3次元ガウススプラッティングをベクトル化物理シミュレータのドロップインとして統合した光現実的ロボットシミュレーションを提案する。
これにより、コンシューマGPUで毎秒10万ステップを超える、前例のないスピードを実現している。
また,シミュレーティブ・トゥ・リアル・ロボティクス・セッティングにおける適用性を実証した。
論文 参考訳(メタデータ) (2025-10-17T06:34:52Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - ES-Gaussian: Gaussian Splatting Mapping via Error Space-Based Gaussian Completion [9.443354889048614]
視覚ベースのマッピングは、粗い点雲のために高品質な3D再構成に苦しむことが多い。
低高度カメラと単線LiDARを用いた高品質な3D再構成システムES-Gaussianを提案する。
論文 参考訳(メタデータ) (2024-10-09T07:09:29Z) - Outdoor Scene Extrapolation with Hierarchical Generative Cellular Automata [70.9375320609781]
我々は,自律走行車(AV)で多量に捕獲された大規模LiDARスキャンから微細な3次元形状を生成することを目指している。
本稿では,空間的にスケーラブルな3次元生成モデルである階層型生成セルオートマトン (hGCA) を提案する。
論文 参考訳(メタデータ) (2024-06-12T14:56:56Z) - GaussNav: Gaussian Splatting for Visual Navigation [92.13664084464514]
インスタンスイメージゴールナビゲーション(IIN)では、エージェントが探索されていない環境で、目標画像に描かれた特定のオブジェクトを見つける必要がある。
視覚ナビゲーションのためのガウススティング(GaussNav)であるIINの新しいフレームワークを提案し、3次元ガウススティング(DGS)に基づく新しい地図表現を構築した。
当社のGaussNavフレームワークは,Habitat-Matterport 3D(HM3D)データセットにおいて,SPL(Path Length)によるSuccessの重み付けを0.347から0.578に増加させ,大幅なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-03-18T09:56:48Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。