論文の概要: Minimizing Occlusion Effect on Multi-View Camera Perception in BEV with Multi-Sensor Fusion
- arxiv url: http://arxiv.org/abs/2501.05997v1
- Date: Fri, 10 Jan 2025 14:29:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-13 15:27:22.033666
- Title: Minimizing Occlusion Effect on Multi-View Camera Perception in BEV with Multi-Sensor Fusion
- Title(参考訳): マルチセンサフュージョンを用いたBEVにおけるマルチビューカメラ知覚における咬合効果の最小化
- Authors: Sanjay Kumar, Hiep Truong, Sushil Sharma, Ganesh Sistu, Tony Scanlan, Eoin Grua, Ciarán Eising,
- Abstract要約: 自動運転システムの性能は、隠されたカメラによって損なわれる可能性がある。
本稿では,LiDARとレーダセンサデータを統合したマルチセンサ融合技術を用いて,隠蔽カメラによる性能劣化を緩和する。
その結果,本手法は車両分割作業の精度と堅牢性を大幅に向上させ,より信頼性の高い自動運転システムを実現することが示唆された。
- 参考スコア(独自算出の注目度): 11.417416198433548
- License:
- Abstract: Autonomous driving technology is rapidly evolving, offering the potential for safer and more efficient transportation. However, the performance of these systems can be significantly compromised by the occlusion on sensors due to environmental factors like dirt, dust, rain, and fog. These occlusions severely affect vision-based tasks such as object detection, vehicle segmentation, and lane recognition. In this paper, we investigate the impact of various kinds of occlusions on camera sensor by projecting their effects from multi-view camera images of the nuScenes dataset into the Bird's-Eye View (BEV) domain. This approach allows us to analyze how occlusions spatially distribute and influence vehicle segmentation accuracy within the BEV domain. Despite significant advances in sensor technology and multi-sensor fusion, a gap remains in the existing literature regarding the specific effects of camera occlusions on BEV-based perception systems. To address this gap, we use a multi-sensor fusion technique that integrates LiDAR and radar sensor data to mitigate the performance degradation caused by occluded cameras. Our findings demonstrate that this approach significantly enhances the accuracy and robustness of vehicle segmentation tasks, leading to more reliable autonomous driving systems.
- Abstract(参考訳): 自動運転技術は急速に進化しており、より安全で効率的な交通手段の可能性を秘めている。
しかし、これらのシステムの性能は、土、ほこり、雨、霧などの環境要因によるセンサーの閉塞によって著しく損なわれる可能性がある。
これらの閉塞は、物体検出、車両のセグメンテーション、車線認識などの視覚に基づくタスクに深刻な影響を及ぼす。
本稿では,NuScenesデータセットの多視点カメラ画像からバードアイビュー(BEV)領域への効果を投影し,カメラセンサに対する様々なオクルージョンの影響について検討する。
提案手法により,BEV領域内における車両のセグメンテーション精度の空間分布と影響について解析することができる。
センサ技術とマルチセンサー融合の進歩にもかかわらず、カメラの閉塞がBEVベースの知覚システムに与える影響について、既存の文献ではギャップが残っている。
このギャップに対処するために、LiDARとレーダーセンサーデータを統合したマルチセンサ融合技術を用いて、カメラの隠蔽による性能劣化を緩和する。
その結果,本手法は車両分割作業の精度と堅牢性を大幅に向上させ,より信頼性の高い自動運転システムを実現することが示唆された。
関連論文リスト
- Boosting Online 3D Multi-Object Tracking through Camera-Radar Cross Check [24.764602040003403]
CRAFTBoosterは、追跡段階におけるレーダーカメラの融合を強化する先駆的な取り組みであり、3D MOT精度の向上に貢献している。
IDF1追跡性能向上の5-6%を示すK-Radaarデータセットの優れた実験結果は、自律走行における効果的なセンサ融合の可能性を検証する。
論文 参考訳(メタデータ) (2024-07-18T23:32:27Z) - Enhancing Track Management Systems with Vehicle-To-Vehicle Enabled Sensor Fusion [0.0]
本稿では,新しいV2V対応トラック管理システムを提案する。
中心となるイノベーションは、V2V通信を通じて検証された融合検出からなる独立した優先度トラックリストの作成にある。
本システムでは,V2X信号のファルシフィケーションが,認識センサからの検知を用いて,初期車両識別プロセスを通じて発生することの意義を考察する。
論文 参考訳(メタデータ) (2024-04-26T20:54:44Z) - How to deal with glare for improved perception of Autonomous Vehicles [0.0]
視覚センサーは多用途であり、色、テクスチャ、形状、深さなど幅広い視覚的手がかりを捉えることができる。
視覚に基づく環境認識システムは、明るい光源の存在下での光沢によって容易に影響を受ける。
論文 参考訳(メタデータ) (2024-04-17T02:05:05Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Fisheye Camera and Ultrasonic Sensor Fusion For Near-Field Obstacle
Perception in Bird's-Eye-View [4.536942273206611]
本稿では,鳥眼ビュー(BEV)の観点からの効率的な障害物認識に適した,エンド・ツー・エンドのマルチモーダル融合モデルを提案する。
魚眼カメラは、後部障害物の定位を含む包括的サラウンドビューの知覚によく使用される。
しかし、このようなカメラの性能は、夜間の低照度、強烈な太陽の輝きにさらされた場合、著しく劣化する可能性がある。
論文 参考訳(メタデータ) (2024-02-01T14:52:16Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - On the Role of Sensor Fusion for Object Detection in Future Vehicular
Networks [25.838878314196375]
異なるセンサの組み合わせが車両の移動・運転環境の検出にどのように影響するかを評価します。
最終的な目標は、チャネルに分散するデータの量を最小限に抑える最適な設定を特定することです。
論文 参考訳(メタデータ) (2021-04-23T18:58:37Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。