論文の概要: Occluded nuScenes: A Multi-Sensor Dataset for Evaluating Perception Robustness in Automated Driving
- arxiv url: http://arxiv.org/abs/2510.18552v2
- Date: Thu, 23 Oct 2025 11:28:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.457103
- Title: Occluded nuScenes: A Multi-Sensor Dataset for Evaluating Perception Robustness in Automated Driving
- Title(参考訳): Occluded nuScenes: 自動走行における知覚ロバスト性評価のためのマルチセンサデータセット
- Authors: Sanjay Kumar, Tim Brophy, Reenu Mohandas, Eoin Martino Grua, Ganesh Sistu, Valentina Donzella, Ciaran Eising,
- Abstract要約: Occluded nuScenesデータセットは、広く使用されているnuScenesベンチマークの新しい拡張である。
このリソースは、部分的なセンサ故障と環境干渉下での知覚モデルの一貫した再現可能な評価をサポートする。
我々は,自動運転におけるロバストなセンサフュージョン,レジリエンス解析,および安全クリティカルな認識に関する研究を進めることを目的としている。
- 参考スコア(独自算出の注目度): 4.60199848319746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robust perception in automated driving requires reliable performance under adverse conditions, where sensors may be affected by partial failures or environmental occlusions. Although existing autonomous driving datasets inherently contain sensor noise and environmental variability, very few enable controlled, parameterised, and reproducible degradations across multiple sensing modalities. This gap limits the ability to systematically evaluate how perception and fusion architectures perform under well-defined adverse conditions. To address this limitation, we introduce the Occluded nuScenes Dataset, a novel extension of the widely used nuScenes benchmark. For the camera modality, we release both the full and mini versions with four types of occlusions, two adapted from public implementations and two newly designed. For radar and LiDAR, we provide parameterised occlusion scripts that implement three types of degradations each, enabling flexible and repeatable generation of occluded data. This resource supports consistent, reproducible evaluation of perception models under partial sensor failures and environmental interference. By releasing the first multi-sensor occlusion dataset with controlled and reproducible degradations, we aim to advance research on robust sensor fusion, resilience analysis, and safety-critical perception in automated driving.
- Abstract(参考訳): 自動走行におけるロバストな認識は、センサーが部分的な故障や環境閉塞の影響を受けうる悪条件下での信頼性の高い性能を必要とする。
既存の自律運転データセットには本来、センサノイズと環境変動性が含まれているが、制御され、パラメータ化され、再現可能な劣化を複数のセンシングモードで実現できるものはほとんどない。
このギャップは、適切に定義された悪条件下での知覚と融合アーキテクチャがどのように機能するかを体系的に評価する能力を制限する。
この制限に対処するために、広く使われているnuScenesベンチマークの新しい拡張であるOccluded nuScenes Datasetを紹介します。
カメラのモダリティのために、我々は4種類のオクルージョンを持つフルバージョンとミニバージョンの両方をリリースし、2つのパブリック実装と2つの新しい設計を行った。
レーダとLiDARでは、3種類の劣化をそれぞれ実装し、柔軟かつ反復可能な閉塞データ生成を可能にするパラメータ化オクルージョンスクリプトを提供する。
このリソースは、部分的なセンサ故障と環境干渉下での知覚モデルの一貫した再現可能な評価をサポートする。
制御および再現可能な劣化を伴う最初のマルチセンサ・オクルージョン・データセットをリリースすることにより、ロバスト・センサ・フュージョン、レジリエンス・アナリシス、自動走行における安全クリティカルな認識の研究を進めることを目指している。
関連論文リスト
- Robust sensor fusion against on-vehicle sensor staleness [5.473556120706307]
センサモード間の時間的ミスアライメントは、一貫性のないオブジェクト状態推定につながる。
この問題に対処するための新しいモデルに依存しないアプローチを提案する。
われわれの手法は、同期条件と古い条件の両方で一貫して良い性能に到達している。
論文 参考訳(メタデータ) (2025-06-06T06:18:54Z) - Point Cloud Recombination: Systematic Real Data Augmentation Using Robotic Targets for LiDAR Perception Validation [0.0]
仮想シミュレーションでは、制御された条件下で任意のシーンを生成することができるが、物理的なセンサー特性は欠如している。
実世界のデータは真のセンサーリアリズムを提供するが、影響要因の制御は少ない。
既存のアプローチでは、シーン間でオブジェクトを転送することで、現実のポイントクラウドデータの増大によってこの問題に対処している。
制御された実験室で測定された物理的対象物から取得した点雲を統合することにより,捕獲された点雲シーンを体系的に増強する点雲再結合を提案する。
論文 参考訳(メタデータ) (2025-05-05T09:00:16Z) - CAFuser: Condition-Aware Multimodal Fusion for Robust Semantic Perception of Driving Scenes [56.52618054240197]
本研究では,運転シーンのロバストな意味認識のための条件対応型マルチモーダル融合手法を提案する。
CAFuserは、RGBカメラ入力を用いて環境条件を分類し、コンディショントークンを生成する。
我々のモデルは、特に悪条件シナリオにおいて、ロバスト性と精度を著しく向上させる。
論文 参考訳(メタデータ) (2024-10-14T17:56:20Z) - Joint Sensing, Communication, and AI: A Trifecta for Resilient THz User
Experiences [118.91584633024907]
テラヘルツ(THz)無線システムに対する拡張現実(XR)体験を最適化するために、新しい共同センシング、通信、人工知能(AI)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-29T00:39:50Z) - Inertial Hallucinations -- When Wearable Inertial Devices Start Seeing
Things [82.15959827765325]
環境支援型生活(AAL)のためのマルチモーダルセンサフュージョンの新しいアプローチを提案する。
我々は、標準マルチモーダルアプローチの2つの大きな欠点、限られた範囲のカバレッジ、信頼性の低下に対処する。
我々の新しいフレームワークは、三重項学習によるモダリティ幻覚の概念を融合させ、異なるモダリティを持つモデルを訓練し、推論時に欠落したセンサーに対処する。
論文 参考訳(メタデータ) (2022-07-14T10:04:18Z) - Bayesian Autoencoders for Drift Detection in Industrial Environments [69.93875748095574]
オートエンコーダは、マルチセンサー環境で異常を検出するために使用される教師なしモデルである。
異常は、実際の環境の変化(実際のドリフト)や、故障した感覚デバイス(仮想ドリフト)から生じる。
論文 参考訳(メタデータ) (2021-07-28T10:19:58Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Learning Selective Sensor Fusion for States Estimation [47.76590539558037]
本稿では,エンド・ツー・エンドのセンサ・フュージョン・モジュールであるSelectFusionを提案する。
予測中、ネットワークは異なるセンサーモードから潜伏する特徴の信頼性を評価することができる。
我々は、公開データセットと漸進的に劣化したデータセットの両方において、すべての融合戦略を広範囲に評価する。
論文 参考訳(メタデータ) (2019-12-30T20:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。