論文の概要: OSDaR-AR: Enhancing Railway Perception Datasets via Multi-modal Augmented Reality
- arxiv url: http://arxiv.org/abs/2602.22920v1
- Date: Thu, 26 Feb 2026 12:08:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.673389
- Title: OSDaR-AR: Enhancing Railway Perception Datasets via Multi-modal Augmented Reality
- Title(参考訳): OSDaR-AR:マルチモーダル拡張現実による鉄道知覚データセットの強化
- Authors: Federico Nesti, Gianluca D'Amico, Mauro Marinoni, Giorgio Buttazzo,
- Abstract要約: 本稿では,仮想オブジェクトを実世界の鉄道シーケンスに統合するマルチモーダル拡張現実フレームワークを提案する。
我々は、RGBフレーム間の正確なオブジェクトの時間的および時間的安定性を保証するために、Unreal 5 Engine機能を使用します。
また,光現実性INS/GNSSデータに対するセグメンテーションに基づく戦略を提案し,拡張シーケンスのリアリズムを大幅に改善する。
- 参考スコア(独自算出の注目度): 5.389633745407707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although deep learning has significantly advanced the perception capabilities of intelligent transportation systems, railway applications continue to suffer from a scarcity of high-quality, annotated data for safety-critical tasks like obstacle detection. While photorealistic simulators offer a solution, they often struggle with the ``sim-to-real" gap; conversely, simple image-masking techniques lack the spatio-temporal coherence required to obtain augmented single- and multi-frame scenes with the correct appearance and dimensions. This paper introduces a multi-modal augmented reality framework designed to bridge this gap by integrating photorealistic virtual objects into real-world railway sequences from the OSDaR23 dataset. Utilizing Unreal Engine 5 features, our pipeline leverages LiDAR point-clouds and INS/GNSS data to ensure accurate object placement and temporal stability across RGB frames. This paper also proposes a segmentation-based refinement strategy for INS/GNSS data to significantly improve the realism of the augmented sequences, as confirmed by the comparative study presented in the paper. Carefully designed augmented sequences are collected to produce OSDaR-AR, a public dataset designed to support the development of next-generation railway perception systems. The dataset is available at the following page: https://syndra.retis.santannapisa.it/osdarar.html
- Abstract(参考訳): 深層学習は知的輸送システムの認識能力を大幅に向上させたが、鉄道アプリケーションは障害物検出のような安全上重要なタスクのための高品質な注釈付きデータの不足に悩まされ続けている。
逆に、単純なイメージマスキング技術では、正しい外観と寸法を持つ拡張シングルフレームとマルチフレームのシーンを得るのに必要な時空間コヒーレンスを欠いている。
本稿では,光リアルな仮想オブジェクトをOSDaR23データセットから実世界の鉄道シーケンスに統合することにより,このギャップを埋めるためのマルチモーダル拡張現実フレームワークを提案する。
Unreal Engine 5の機能を利用することで、当社のパイプラインはLiDARポイントクラウドとINS/GNSSデータを活用して、RGBフレーム間の正確なオブジェクト配置と時間的安定性を確保します。
本稿では,INS/GNSSデータに対するセグメンテーションに基づく改良手法を提案する。
慎重に設計された拡張シーケンスは、次世代の鉄道知覚システムの開発を支援するために設計されたパブリックデータセットであるOSDaR-ARを作成するために収集される。
データセットは以下のページで利用可能である。
関連論文リスト
- Scaling Up Occupancy-centric Driving Scene Generation: Dataset and Method [54.461213497603154]
作業中心の手法は、最近、フレームとモダリティをまたいだ一貫した条件付けを提供することで、最先端の結果を得た。
Nuplan-Occは、広く使われているNuplanベンチマークから構築された、これまでで最大の占有率データセットである。
高品質な占有、多視点ビデオ、LiDAR点雲を共同で合成する統合フレームワークを開発した。
論文 参考訳(メタデータ) (2025-10-27T03:52:45Z) - R2RGEN: Real-to-Real 3D Data Generation for Spatially Generalized Manipulation [74.41728218960465]
本稿では,実世界のデータを生成するために,ポイントクラウド観測-アクションペアを直接拡張するリアルタイム3Dデータ生成フレームワーク(R2RGen)を提案する。
R2RGenは、広範な実験におけるデータの効率を大幅に向上させ、モバイル操作におけるスケーリングと応用の強い可能性を示す。
論文 参考訳(メタデータ) (2025-10-09T17:55:44Z) - UrbanTwin: Building High-Fidelity Digital Twins for Sim2Real LiDAR Perception and Evaluation [3.1508266388327324]
本チュートリアルでは,高忠実度ディジタルツイン(HiFi DT)を構築するための再現可能なワークフローを導入し,リアルな合成データセットを生成する。
衛星画像やOpenStreetMap,センサ仕様などのオープンソースリソースを用いて,静的な地形,道路インフラストラクチャ,動的トラフィックをモデル化するための実践的な手順を概説する。
結果として得られる環境は、スケーラブルで費用効率のよいデータ生成をサポートし、堅牢なSim2Real学習を実現する。
論文 参考訳(メタデータ) (2025-09-03T00:12:15Z) - ROVR-Open-Dataset: A Large-Scale Depth Dataset for Autonomous Driving [62.9051914830949]
実世界の運転の複雑さを捉えるために設計された,大規模で多様で費用効率のよい深度データセットであるROVRを提案する。
軽量な取得パイプラインは、スケーラブルなコレクションを保証すると同時に、統計的に十分な基礎的真実は堅牢なトレーニングをサポートする。
最先端の単分子深度モデルによるベンチマークでは、厳密なクロスデータセットの一般化失敗が示される。
論文 参考訳(メタデータ) (2025-08-19T16:13:49Z) - RaSim: A Range-aware High-fidelity RGB-D Data Simulation Pipeline for Real-world Applications [55.24463002889]
我々は深度データ合成に焦点をあて、レンジ対応RGB-Dデータシミュレーションパイプライン(RaSim)を開発した。
特に、実世界のセンサーの撮像原理を模倣して高忠実度深度データを生成する。
RaSimは、下流のRGB-D知覚タスクで微調整をすることなく、現実世界のシナリオに直接適用することができる。
論文 参考訳(メタデータ) (2024-04-05T08:52:32Z) - Augmented Reality based Simulated Data (ARSim) with multi-view consistency for AV perception networks [47.07188762367792]
ARSimは3次元合成オブジェクトを用いた実写多視点画像データの拡張を目的としたフレームワークである。
実データを用いて簡易な仮想シーンを構築し,その内部に戦略的に3D合成資産を配置する。
結果として得られたマルチビュー一貫性のあるデータセットは、自動運転車のためのマルチカメラ知覚ネットワークのトレーニングに使用される。
論文 参考訳(メタデータ) (2024-03-22T17:49:11Z) - Self-Supervised Scene Dynamic Recovery from Rolling Shutter Images and
Events [63.984927609545856]
任意の時間間隔間での画素単位のダイナミックさを予測するために,イベントベース/イントラフレーム補償器(E-IC)を提案する。
提案手法は,実世界のシナリオにおけるイベントベースRS2GSインバージョンにおいて,顕著な性能を示す。
論文 参考訳(メタデータ) (2023-04-14T05:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。