論文の概要: Robustness of Object Detection of Autonomous Vehicles in Adverse Weather Conditions
- arxiv url: http://arxiv.org/abs/2602.12902v1
- Date: Fri, 13 Feb 2026 13:02:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.954202
- Title: Robustness of Object Detection of Autonomous Vehicles in Adverse Weather Conditions
- Title(参考訳): 逆気象条件下における自動運転車の物体検出のロバスト性
- Authors: Fox Pettersen, Hong Zhu,
- Abstract要約: 本稿では,悪天候下での自律走行車における物体検出MLモデルのロバスト性を評価する手法を提案する。
データ拡張演算子を使用して、有害な操作条件の異なる重症度をシミュレートする合成データを生成する。
オブジェクト検出モデルのロバスト性は、ベンチマークの入力画像上での平均1次故障係数(AFFC)によって測定される。
- 参考スコア(独自算出の注目度): 2.4690347153946237
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As self-driving technology advances toward widespread adoption, determining safe operational thresholds across varying environmental conditions becomes critical for public safety. This paper proposes a method for evaluating the robustness of object detection ML models in autonomous vehicles under adverse weather conditions. It employs data augmentation operators to generate synthetic data that simulates different severance degrees of the adverse operation conditions at progressive intensity levels to find the lowest intensity of the adverse conditions at which the object detection model fails. The robustness of the object detection model is measured by the average first failure coefficients (AFFC) over the input images in the benchmark. The paper reports an experiment with four object detection models: YOLOv5s, YOLOv11s, Faster R-CNN, and Detectron2, utilising seven data augmentation operators that simulate weather conditions fog, rain, and snow, and lighting conditions of dark, bright, flaring, and shadow. The experiment data show that the method is feasible, effective, and efficient to evaluate and compare the robustness of object detection models in various adverse operation conditions. In particular, the Faster R-CNN model achieved the highest robustness with an overall average AFFC of 71.9% over all seven adverse conditions, while YOLO variants showed the AFFC values of 43%. The method is also applied to assess the impact of model training that targets adverse operation conditions using synthetic data on model robustness. It is observed that such training can improve robustness in adverse conditions but may suffer from diminishing returns and forgetting phenomena (i.e., decline in robustness) if overtrained.
- Abstract(参考訳): 自動運転技術が普及するにつれて、様々な環境条件における安全な運転基準を決定することが公共の安全にとって重要となる。
本稿では,悪天候下での自律走行車における物体検出MLモデルのロバスト性を評価する手法を提案する。
オブジェクト検出モデルが失敗する有害な条件の最低強度を見つけるために、プログレッシブ強度レベルで、不適切な操作条件の異なる重症度をシミュレートする合成データを生成するためにデータ拡張演算子を用いる。
オブジェクト検出モデルのロバスト性は、ベンチマークの入力画像上での平均1次故障係数(AFFC)によって測定される。
YOLOv5s, YOLOv11s, Faster R-CNN, Detectron2の4つの物体検出モデルを用いた実験を報告した。
実験データから, 種々の操作条件下での物体検出モデルのロバスト性を評価・比較し, 有効かつ効果的であることを示す。
特に、Faster R-CNNモデルは7つの有害な条件すべてに対して平均71.9%のAFFCを達成し、YOLOはAFFCの43%の値を示した。
また, モデルロバスト性に対する合成データを用いて, 有害な操作条件を目標としたモデルトレーニングの効果を評価する。
このようなトレーニングは、悪条件下での堅牢性を改善することができるが、過度に訓練された場合、リターンの低下や現象(すなわち、堅牢性の低下)を忘れることに悩む可能性がある。
関連論文リスト
- On the Assessment of Sensitivity of Autonomous Vehicle Perception [0.13858851827255522]
自動走行の実現性は知覚システムの性能に大きく依存する。
モデルアンサンブルに基づく予測感度定量化を用いて知覚性能を評価する。
異なる路面上の停止標識におけるAVの停止距離に基づいて知覚評価基準を開発する。
論文 参考訳(メタデータ) (2026-01-30T21:06:05Z) - Forecasting Fails: Unveiling Evasion Attacks in Weather Prediction Models [60.728124907335]
本研究では,気象適応型対向摂動最適化(WAAPO)を紹介した。
WAAPOは、チャネルの間隔、空間的局所化、滑らかさの制約を取り入れ、摂動が物理的に現実的で知覚不能であることを保証することでこれを達成している。
我々の実験は、AI駆動予測モデルにおける重要な脆弱性を強調しており、初期状態への小さな摂動が大きな逸脱をもたらす可能性がある。
論文 参考訳(メタデータ) (2025-12-09T17:20:56Z) - An Empirical Study on the Robustness of YOLO Models for Underwater Object Detection [5.084022830578536]
6つの模擬水中環境における最近のYOLO変異体(YOLOv8-YOLOv12)の総合評価を行った。
以上の結果から,YOLOv12は全体的な性能が最も高いが,騒音に強いことが示唆された。
実験の結果、画像数とインスタンス頻度は、主に検出性能を駆動し、物体の外観は二次的な影響しか与えないことがわかった。
論文 参考訳(メタデータ) (2025-09-22T10:55:21Z) - YOLO9tr: A Lightweight Model for Pavement Damage Detection Utilizing a Generalized Efficient Layer Aggregation Network and Attention Mechanism [0.0]
本稿では,舗装損傷検出のための軽量物体検出モデルYOLO9trを提案する。
YOLO9trはYOLOv9アーキテクチャに基づいており、機能抽出とアテンション機構を強化する部分的なアテンションブロックを備えている。
このモデルは、最大136FPSのフレームレートを実現し、ビデオ監視や自動検査システムなどのリアルタイムアプリケーションに適合する。
論文 参考訳(メタデータ) (2024-06-17T06:31:43Z) - Extreme Miscalibration and the Illusion of Adversarial Robustness [66.29268991629085]
敵の訓練は、しばしばモデルの堅牢性を高めるために使用される。
我々は、この観測されたロバストネスの利得はロバストネスの錯覚(IOR)であることを示した。
我々は,NLPコミュニティに対して,試験時間温度のスケーリングを堅牢性評価に組み込むよう促す。
論文 参考訳(メタデータ) (2024-02-27T13:49:12Z) - Robust Monocular Depth Estimation under Challenging Conditions [81.57697198031975]
最先端のモノクル深度推定手法は、難解な照明や気象条件下では信頼性が低い。
我々はmd4allでこれらの安全クリティカルな問題に取り組む: 単純で効果的なソリューションで、悪条件と理想条件の両方で確実に機能する。
論文 参考訳(メタデータ) (2023-08-18T17:59:01Z) - Exploring the Physical World Adversarial Robustness of Vehicle Detection [13.588120545886229]
アドリアックは現実世界の検知モデルの堅牢性を損なう可能性がある。
CARLAシミュレータを用いた革新的なインスタントレベルデータ生成パイプラインを提案する。
本研究は, 逆境条件下での多種多様なモデル性能について考察した。
論文 参考訳(メタデータ) (2023-08-07T11:09:12Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。