論文の概要: The Monado SLAM Dataset for Egocentric Visual-Inertial Tracking
- arxiv url: http://arxiv.org/abs/2508.00088v1
- Date: Thu, 31 Jul 2025 18:28:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.62644
- Title: The Monado SLAM Dataset for Egocentric Visual-Inertial Tracking
- Title(参考訳): Egocentric Visual-Inertial TrackingのためのモナドSLAMデータセット
- Authors: Mateo de Mayo, Daniel Cremers, Taihú Pire,
- Abstract要約: ヒューマノイドロボットと複合現実ヘッドセットは、ヘッドマウントセンサーを使ってトラッキングする。
私たちは、最先端のトラッキングシステムが、ヘッドマウントされたユースケースで提示される困難な設定の多くを優雅に処理できないことを示しています。
複数のバーチャルリアリティーヘッドセットから得られたリアルシーケンスの集合であるMonado SLAMデータセットを提示する。
- 参考スコア(独自算出の注目度): 38.93284476165776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humanoid robots and mixed reality headsets benefit from the use of head-mounted sensors for tracking. While advancements in visual-inertial odometry (VIO) and simultaneous localization and mapping (SLAM) have produced new and high-quality state-of-the-art tracking systems, we show that these are still unable to gracefully handle many of the challenging settings presented in the head-mounted use cases. Common scenarios like high-intensity motions, dynamic occlusions, long tracking sessions, low-textured areas, adverse lighting conditions, saturation of sensors, to name a few, continue to be covered poorly by existing datasets in the literature. In this way, systems may inadvertently overlook these essential real-world issues. To address this, we present the Monado SLAM dataset, a set of real sequences taken from multiple virtual reality headsets. We release the dataset under a permissive CC BY 4.0 license, to drive advancements in VIO/SLAM research and development.
- Abstract(参考訳): ヒューマノイドロボットと複合現実ヘッドセットは、ヘッドマウントセンサーを使ってトラッキングする。
視覚慣性眼球運動計測(VIO)とSLAM(同時局所化マッピング)の進歩は,新しい高品質な最先端追跡システムを生み出しているものの,頭部装着のユースケースにおいて提示される課題の多くを適切に扱えないことを示す。
高強度モーション、ダイナミックオクルージョン、長時間追跡セッション、低テクスチャエリア、照明条件の悪さ、センサーの飽和といった一般的なシナリオは、文献における既存のデータセットによってカバーされ続けている。
このようにして、システムは必然的にこれらの本質的な現実世界の問題を見落としてしまうかもしれない。
これを解決するために、複数のバーチャルリアリティーヘッドセットから取得したリアルシーケンスのセットであるMonado SLAMデータセットを提示する。
このデータセットをCC BY 4.0ライセンスでリリースし、VIO/SLAMの研究と開発を推進します。
関連論文リスト
- How Real is CARLAs Dynamic Vision Sensor? A Study on the Sim-to-Real Gap in Traffic Object Detection [0.0]
イベントカメラは、交差点でのリアルタイム物体検出に適している。
堅牢なイベントベース検出モデルの開発は、注釈付き現実世界データセットの可用性の制限によって妨げられている。
本研究では,CARLAs DVSを用いたイベントベース物体検出におけるsim-to-realギャップの定量的解析を行った。
論文 参考訳(メタデータ) (2025-06-16T17:27:43Z) - Multi-modal Multi-platform Person Re-Identification: Benchmark and Method [58.59888754340054]
MP-ReIDは、マルチモダリティとマルチプラットフォームReIDに特化した新しいデータセットである。
このベンチマークは、RGB、赤外線、サーマルイメージングなど、さまざまなモードで1,930のIDからデータをコンパイルする。
クロスモダリティとクロスプラットフォームシナリオに適した,特定設計のプロンプトを備えたフレームワークであるUni-Prompt ReIDを紹介する。
論文 参考訳(メタデータ) (2025-03-21T12:27:49Z) - ROVER: A Multi-Season Dataset for Visual SLAM [7.296917102476635]
ROVERは、様々な環境条件下で視覚SLAMアルゴリズムを評価するためのベンチマークデータセットである。
5つの屋外に39の録音があり、季節ごとの収集と様々な照明のシナリオがある。
その結果, ステレオ慣性・RGBD構成は, 照明条件下では良好であるが, SLAMシステムの多くは低照度・高植生環境では不十分であることがわかった。
論文 参考訳(メタデータ) (2024-12-03T15:34:00Z) - InCrowd-VI: A Realistic Visual-Inertial Dataset for Evaluating SLAM in Indoor Pedestrian-Rich Spaces for Human Navigation [2.184775414778289]
InCrowd-VIは、屋内の歩行者の多い環境での人間のナビゲーションに特化したビジュアル慣性データセットである。
RGB、ステレオ画像、IMU測定など、合計5kmの軌道長と1.5時間の記録時間を含む58のシーケンスが特徴である。
このデータセットはMeta Ariaプロジェクトマシン認識SLAMサービスに由来する。
論文 参考訳(メタデータ) (2024-11-21T17:58:07Z) - LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - Amirkabir campus dataset: Real-world challenges and scenarios of Visual
Inertial Odometry (VIO) for visually impaired people [3.7998592843098336]
上記の問題に対処し,ナビゲーションシステムを改善するために,Amirkabirキャンパスデータセット(AUT-VI)を導入する。
AUT-VIは17の異なる場所で126の異なる配列を持つ、新しくて超混成的なデータセットである。
進行中の開発作業のサポートとして、データキャプチャ用のAndroidアプリケーションを一般向けにリリースしました。
論文 参考訳(メタデータ) (2024-01-07T23:13:51Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Aria-NeRF: Multimodal Egocentric View Synthesis [17.0554791846124]
ニューラルラジアンス場(NeRFs)にインスパイアされた可変体積線トレーシングに基づく、エゴセントリックなデータから訓練されたリッチでマルチモーダルなシーンモデルの開発における研究の加速を目指す。
このデータセットは、RGB画像、アイトラッキングカメラの映像、マイクからの音声記録、気圧計による気圧測定、GPSによる位置座標、デュアル周波数IMUデータセット(1kHzと800Hz)の情報を含む、総合的なセンサデータの収集を提供する。
このデータセットで捉えた多様なデータモダリティと現実世界のコンテキストは、人間の行動に対する理解を深め、より没入的でインテリジェントな体験を可能にするための堅牢な基盤となる。
論文 参考訳(メタデータ) (2023-11-11T01:56:35Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - The Hilti SLAM Challenge Dataset [41.091844019181735]
構築環境は、同時局所化とマッピング(SLAM)アルゴリズムに難しい問題を引き起こす。
本研究を支援するために,Hilti SLAM Challengeデータセットという新しいデータセットを提案する。
各データセットには正確な基底真理が含まれており、SLAM結果を直接テストすることができる。
論文 参考訳(メタデータ) (2021-09-23T12:02:40Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。