論文の概要: SLAM&Render: A Benchmark for the Intersection Between Neural Rendering, Gaussian Splatting and SLAM
- arxiv url: http://arxiv.org/abs/2504.13713v3
- Date: Thu, 06 Nov 2025 15:18:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.103045
- Title: SLAM&Render: A Benchmark for the Intersection Between Neural Rendering, Gaussian Splatting and SLAM
- Title(参考訳): SLAM&Render: ニューラルレンダリング, ガウススメッティング, SLAMのインターセクションのベンチマーク
- Authors: Samuel Cerezo, Gaetano Meli, Tomás Berriel Martins, Kirill Safronov, Javier Civera,
- Abstract要約: SLAM&RenderはSLAM, Novel View Rendering, Gaussian Splattingの交差点でメソッドをベンチマークするために設計された新しいデータセットである。
タイム同期RGB-Dイメージ、IMU読み込み、ロボットキネマティックデータ、グラウンドトルースポーズストリームを備えた40のシーケンスを独自に備えている。
ロボットキネマティックデータをリリースすることにより、このデータセットはロボットアプリケーションにおけるSLAMパラダイムの最近の統合を評価することもできる。
- 参考スコア(独自算出の注目度): 12.378998250852383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Models and methods originally developed for Novel View Synthesis and Scene Rendering, such as Neural Radiance Fields (NeRF) and Gaussian Splatting, are increasingly being adopted as representations in Simultaneous Localization and Mapping (SLAM). However, existing datasets fail to include the specific challenges of both fields, such as sequential operations and, in many settings, multi-modality in SLAM or generalization across viewpoints and illumination conditions in neural rendering. Additionally, the data are often collected using sensors which are handheld or mounted on drones or mobile robots, which complicates the accurate reproduction of sensor motions. To bridge these gaps, we introduce SLAM&Render, a novel dataset designed to benchmark methods in the intersection between SLAM, Novel View Rendering and Gaussian Splatting. Recorded with a robot manipulator, it uniquely includes 40 sequences with time-synchronized RGB-D images, IMU readings, robot kinematic data, and ground-truth pose streams. By releasing robot kinematic data, the dataset also enables the assessment of recent integrations of SLAM paradigms within robotic applications. The dataset features five setups with consumer and industrial objects under four controlled lighting conditions, each with separate training and test trajectories. All sequences are static with different levels of object rearrangements and occlusions. Our experimental results, obtained with several baselines from the literature, validate SLAM&Render as a relevant benchmark for this emerging research area.
- Abstract(参考訳): ニューラル・レイディアンス・フィールド(NeRF)やガウス・スプレイティング(Gussian Splatting)といった新しいビュー・シンセサイティングとシーンレンダリングのために開発されたモデルや手法は、同時局所化・マッピング(SLAM)における表現としてますます採用されている。
しかし、既存のデータセットは、シーケンシャルな操作や多くの設定において、SLAMにおけるマルチモダリティや、視点を越えた一般化、ニューラルレンダリングにおける照明条件といった、両方のフィールドの特定の課題を含まない。
さらに、データは手持ちのセンサーや、ドローンや移動ロボットに搭載されたセンサーを使って収集されることが多く、センサーの動きの正確な再現が複雑になる。
これらのギャップを埋めるために、SLAM, Novel View Rendering と Gaussian Splatting の交差点でメソッドをベンチマークするために設計された新しいデータセットであるSLAM&Renderを導入する。
ロボットマニピュレータで記録され、時間同期RGB-D画像、IMU読み出し、ロボットキネマティックデータ、地味のポーズストリームを含む40のシーケンスを含む。
ロボットキネマティックデータをリリースすることにより、このデータセットはロボットアプリケーションにおけるSLAMパラダイムの最近の統合を評価することもできる。
データセットには4つの制御された照明条件の下で、消費者と工業のオブジェクトを備えた5つのセットアップがあり、それぞれに別々のトレーニングとテストの軌跡がある。
すべてのシーケンスは静的で、異なるレベルのオブジェクト再構成とオクルージョンを持つ。
文献からいくつかのベースラインを得た実験結果から,SLAM&Renderを本研究領域の関連ベンチマークとして検証した。
関連論文リスト
- MCN-SLAM: Multi-Agent Collaborative Neural SLAM with Hybrid Implicit Neural Scene Representation [51.07118703442774]
既存のNeRFベースのマルチエージェントSLAMフレームワークは通信帯域幅の制約を満たすことができない。
本稿では,ハイブリッドシーン表現を用いた分散マルチエージェント協調型ニューラルSLAMフレームワークを提案する。
シーン再構成を改善するために, 新規な三面体グリッド共同シーン表現法を提案する。
局所的(単一エージェント)と大域的(複数エージェント)の整合性を実現するために,新しいイントラ・トゥ・インターループ・クロージャ法が設計された。
論文 参考訳(メタデータ) (2025-06-23T14:22:29Z) - ROVER: A Multi-Season Dataset for Visual SLAM [7.296917102476635]
ROVERは、様々な環境条件下で視覚SLAMアルゴリズムを評価するためのベンチマークデータセットである。
5つの屋外に39の録音があり、季節ごとの収集と様々な照明のシナリオがある。
その結果, ステレオ慣性・RGBD構成は, 照明条件下では良好であるが, SLAMシステムの多くは低照度・高植生環境では不十分であることがわかった。
論文 参考訳(メタデータ) (2024-12-03T15:34:00Z) - BVI-RLV: A Fully Registered Dataset and Benchmarks for Low-Light Video Enhancement [56.97766265018334]
本稿では,2つの異なる低照度条件下での様々な動きシナリオを持つ40のシーンからなる低照度映像データセットを提案する。
我々は、プログラム可能なモータードリーを用いて、通常の光で捉えた完全に登録された地上真実データを提供し、異なる光レベルにわたるピクセルワイドフレームアライメントのための画像ベースアプローチによりそれを洗練する。
実験の結果,Low-light Video enhancement (LLVE) における完全登録ビデオペアの重要性が示された。
論文 参考訳(メタデータ) (2024-07-03T22:41:49Z) - Gaussian-SLAM: Photo-realistic Dense SLAM with Gaussian Splatting [24.160436463991495]
本稿では3次元ガウスアンをシーン表現として用いたSLAM法を提案する。
本手法は,実世界のシングルカメラRGBDビデオから,インタラクティブなリアルタイム再構成と写真リアルレンダリングを実現する。
論文 参考訳(メタデータ) (2023-12-06T10:47:53Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - Co-SLAM: Joint Coordinate and Sparse Parametric Encodings for Neural
Real-Time SLAM [14.56883275492083]
Co-SLAMはハイブリッド表現に基づくRGB-D SLAMシステムである。
堅牢なカメラ追跡と高忠実な表面再構成をリアルタイムで行う。
論文 参考訳(メタデータ) (2023-04-27T17:46:45Z) - NICER-SLAM: Neural Implicit Scene Encoding for RGB SLAM [111.83168930989503]
NICER-SLAMは、カメラポーズと階層的なニューラル暗黙マップ表現を同時に最適化するRGB SLAMシステムである。
近年のRGB-D SLAMシステムと競合する高密度マッピング,追跡,新しいビュー合成において,高い性能を示す。
論文 参考訳(メタデータ) (2023-02-07T17:06:34Z) - ESLAM: Efficient Dense SLAM System Based on Hybrid Representation of
Signed Distance Fields [2.0625936401496237]
ESLAMは、未知のカメラポーズでRGB-Dフレームを読み出し、シーン表現を漸進的に再構築する。
ESLAMは3次元再構成の精度を向上し、最先端の高密度視覚SLAM法のカメラローカライゼーションを50%以上向上する。
論文 参考訳(メタデータ) (2022-11-21T18:25:14Z) - RTMV: A Ray-Traced Multi-View Synthetic Dataset for Novel View Synthesis [104.53930611219654]
約2000の複雑なシーンからレンダリングされた300k画像からなる,新しいビュー合成のための大規模合成データセットを提案する。
データセットは、新しいビュー合成のための既存の合成データセットよりも桁違いに大きい。
高品質な3Dメッシュの4つのソースを使用して、私たちのデータセットのシーンは、カメラビュー、照明、形状、材料、テクスチャの難しいバリエーションを示します。
論文 参考訳(メタデータ) (2022-05-14T13:15:32Z) - NICE-SLAM: Neural Implicit Scalable Encoding for SLAM [112.6093688226293]
NICE-SLAMは階層的なシーン表現を導入することでマルチレベルローカル情報を組み込んだ高密度SLAMシステムである。
最近の暗黙的SLAMシステムと比較して、私たちのアプローチはよりスケーラブルで効率的で堅牢です。
論文 参考訳(メタデータ) (2021-12-22T18:45:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。