論文の概要: Robust sensor fusion against on-vehicle sensor staleness
- arxiv url: http://arxiv.org/abs/2506.05780v1
- Date: Fri, 06 Jun 2025 06:18:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.346593
- Title: Robust sensor fusion against on-vehicle sensor staleness
- Title(参考訳): 車載センサの不安定性に対するロバスト・センサ・フュージョン
- Authors: Meng Fan, Yifan Zuo, Patrick Blaes, Harley Montgomery, Subhasis Das,
- Abstract要約: センサモード間の時間的ミスアライメントは、一貫性のないオブジェクト状態推定につながる。
この問題に対処するための新しいモデルに依存しないアプローチを提案する。
われわれの手法は、同期条件と古い条件の両方で一貫して良い性能に到達している。
- 参考スコア(独自算出の注目度): 5.473556120706307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sensor fusion is crucial for a performant and robust Perception system in autonomous vehicles, but sensor staleness, where data from different sensors arrives with varying delays, poses significant challenges. Temporal misalignment between sensor modalities leads to inconsistent object state estimates, severely degrading the quality of trajectory predictions that are critical for safety. We present a novel and model-agnostic approach to address this problem via (1) a per-point timestamp offset feature (for LiDAR and radar both relative to camera) that enables fine-grained temporal awareness in sensor fusion, and (2) a data augmentation strategy that simulates realistic sensor staleness patterns observed in deployed vehicles. Our method is integrated into a perspective-view detection model that consumes sensor data from multiple LiDARs, radars and cameras. We demonstrate that while a conventional model shows significant regressions when one sensor modality is stale, our approach reaches consistently good performance across both synchronized and stale conditions.
- Abstract(参考訳): センサーの融合は、自動運転車の高性能で堅牢なパーセプションシステムにとって不可欠だが、異なるセンサーからのデータが様々な遅延で到着するセンサーの安定度は、大きな課題となる。
センサモード間の時間的ミスアライメントは、安全に重要な軌道予測の品質を著しく低下させ、一貫性のないオブジェクト状態の推定につながる。
本稿では,(1)センサフュージョンにおける微粒な時間的認識を可能にする点ごとのタイムスタンプオフセット(LiDARとレーダの両方に対して)と,(2)展開車両で観測されるリアルなセンサの安定性パターンをシミュレートするデータ拡張戦略により,この問題に対処する新しいモデルに依存しないアプローチを提案する。
本手法は、複数のLiDAR、レーダー、カメラからのセンサデータを消費する視点視点検出モデルに統合される。
従来のモデルでは,1つのセンサのモードが一定である場合に顕著な回帰を示すが,本手法は同期条件と安定条件の両方で一貫して良好な性能を示す。
関連論文リスト
- MSC-Bench: Benchmarking and Analyzing Multi-Sensor Corruption for Driving Perception [9.575044300747061]
マルチセンサー融合モデルは、特に3Dオブジェクト検出やHDマップ構築といったタスクにおいて、自律運転知覚において重要な役割を果たす。
これらのモデルは、自律運転システムに必須かつ包括的な静的環境情報を提供する。
カメラ-LiDAR融合法は有望な結果を示しているが、それらはしばしば完全なセンサー入力に依存する。
この依存は、センサーが破損したり行方不明になったりした場合のロバスト性や潜在的な故障を招き、重大な安全性上の懸念を引き起こす可能性がある。
この課題に対処するために,多センサ自律運転知覚モデルの各種センサ破損に対する堅牢性評価を目的とした,初の総合的なベンチマークであるMulti-Sensor Corruption Benchmark(MSC-Bench)を導入する。
論文 参考訳(メタデータ) (2025-01-02T03:38:46Z) - CAFuser: Condition-Aware Multimodal Fusion for Robust Semantic Perception of Driving Scenes [56.52618054240197]
本研究では,運転シーンのロバストな意味認識のための条件対応型マルチモーダル融合手法を提案する。
CAFuserは、RGBカメラ入力を用いて環境条件を分類し、コンディショントークンを生成する。
我々のモデルは、特に悪条件シナリオにおいて、ロバスト性と精度を著しく向上させる。
論文 参考訳(メタデータ) (2024-10-14T17:56:20Z) - Increasing the Robustness of Model Predictions to Missing Sensors in Earth Observation [5.143097874851516]
入力センサドロップアウト(ISensD)とアンサンブルセンサ不変(ESensI)という,マルチセンサシナリオに適した2つの新しい手法について検討した。
これらの手法は, モデル予測の頑健さを, センサの欠如に対して効果的に向上させることを示した。
アンサンブル・マルチセンサー・モデルはセンサの欠如に対して最も頑丈であることが観察された。
論文 参考訳(メタデータ) (2024-07-22T09:58:29Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Sensor Adversarial Traits: Analyzing Robustness of 3D Object Detection
Sensor Fusion Models [16.823829387723524]
我々は,高性能でオープンソースのセンサ融合モデルアーキテクチャの強靭性を敵攻撃に対して解析する。
LIDARセンサーを使用しているにもかかわらず、このモデルは、意図的に構築された画像ベースの敵攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2021-09-13T23:38:42Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - Investigating the Effect of Sensor Modalities in Multi-Sensor
Detection-Prediction Models [8.354898936252516]
我々は,モデル性能に対するセンサモダリティの寄与に注目した。
また,上記の課題を解決するためにセンサドロップアウトの利用について検討する。
論文 参考訳(メタデータ) (2021-01-09T03:21:36Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z) - Learning Selective Sensor Fusion for States Estimation [47.76590539558037]
本稿では,エンド・ツー・エンドのセンサ・フュージョン・モジュールであるSelectFusionを提案する。
予測中、ネットワークは異なるセンサーモードから潜伏する特徴の信頼性を評価することができる。
我々は、公開データセットと漸進的に劣化したデータセットの両方において、すべての融合戦略を広範囲に評価する。
論文 参考訳(メタデータ) (2019-12-30T20:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。