論文の概要: Benchmarking Image Perturbations for Testing Automated Driving Assistance Systems
- arxiv url: http://arxiv.org/abs/2501.12269v1
- Date: Tue, 21 Jan 2025 16:40:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:26:06.267204
- Title: Benchmarking Image Perturbations for Testing Automated Driving Assistance Systems
- Title(参考訳): 自動走行支援システムテストのための画像摂動ベンチマーク
- Authors: Stefano Carlo Lambertenghi, Hannes Leonhard, Andrea Stocco,
- Abstract要約: ディープニューラルネットワーク(DNN)に基づく高度な運転支援システム(ADAS)は、重要な知覚タスクのために自動運転車で広く利用されている。
これらのシステムは、ノイズや照明の変化といった入力のバリエーションに非常に敏感であり、その効果を損なう可能性があり、安全性に重大な障害を引き起こす可能性がある。
本研究は、ADAS知覚システムの堅牢性と一般化を検証・改善するために、画像摂動の総合的な実験的評価を提供する。
- 参考スコア(独自算出の注目度): 1.9526430269580959
- License:
- Abstract: Advanced Driver Assistance Systems (ADAS) based on deep neural networks (DNNs) are widely used in autonomous vehicles for critical perception tasks such as object detection, semantic segmentation, and lane recognition. However, these systems are highly sensitive to input variations, such as noise and changes in lighting, which can compromise their effectiveness and potentially lead to safety-critical failures. This study offers a comprehensive empirical evaluation of image perturbations, techniques commonly used to assess the robustness of DNNs, to validate and improve the robustness and generalization of ADAS perception systems. We first conducted a systematic review of the literature, identifying 38 categories of perturbations. Next, we evaluated their effectiveness in revealing failures in two different ADAS, both at the component and at the system level. Finally, we explored the use of perturbation-based data augmentation and continuous learning strategies to improve ADAS adaptation to new operational design domains. Our results demonstrate that all categories of image perturbations successfully expose robustness issues in ADAS and that the use of dataset augmentation and continuous learning significantly improves ADAS performance in novel, unseen environments.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)に基づく高度な運転支援システム(ADAS)は、物体検出、セマンティックセグメンテーション、車線認識などの重要な認識タスクのために自動運転車で広く利用されている。
しかし、これらのシステムはノイズや照明の変化といった入力のバリエーションに非常に敏感であり、その効果を損なう可能性があり、安全性に重大な障害を引き起こす可能性がある。
本研究は,画像摂動の包括的評価,DNNの頑健性の評価,ADAS知覚システムの堅牢性と一般化の検証と改善に広く用いられている技術である。
われわれはまず,38の摂動カテゴリーを同定し,文献の体系的レビューを行った。
次に、コンポーネントとシステムレベルでの2つの異なるADASにおける障害を明らかにすることの有効性を評価した。
最後に、新しい運用設計領域へのADAS適応を改善するために、摂動に基づくデータ拡張と継続的学習戦略の使用について検討した。
以上の結果から, 画像摂動のすべてのカテゴリがADASの堅牢性問題を明らかにすることに成功し, データセット拡張と継続的学習を用いることで, 新たな未確認環境におけるADASの性能が著しく向上することが示唆された。
関連論文リスト
- Efficient Domain Augmentation for Autonomous Driving Testing Using Diffusion Models [7.649716717097431]
本稿では,ADS(Autonomous Driving Systems)システムレベルのテストを強化するために,生成人工知能技術と物理ベースシミュレータの統合について検討する。
本研究では拡散モデルに基づく3つの生成戦略の有効性と計算オーバーヘッドを評価する。
セマンティックセグメンテーションに基づく不適切な入力に対して,ニューラル生成画像のセマンティックな保存とリアリズムを確保するために,新しい自動検出手法を採用した。
論文 参考訳(メタデータ) (2024-09-20T17:09:45Z) - Multi-agent Reinforcement Learning-based Network Intrusion Detection System [3.4636217357968904]
侵入検知システム(IDS)は,コンピュータネットワークのセキュリティ確保において重要な役割を担っている。
本稿では,自動,効率的,堅牢なネットワーク侵入検出が可能な,新しいマルチエージェント強化学習(RL)アーキテクチャを提案する。
我々のソリューションは、新しい攻撃の追加に対応し、既存の攻撃パターンの変更に効果的に適応するように設計されたレジリエントなアーキテクチャを導入します。
論文 参考訳(メタデータ) (2024-07-08T09:18:59Z) - Integrity Monitoring of 3D Object Detection in Automated Driving Systems using Raw Activation Patterns and Spatial Filtering [12.384452095533396]
ディープニューラルネットワーク(DNN)モデルは、自動運転システム(ADS)における物体検出に広く利用されている。
しかし、そのようなモデルは、重大な安全性に影響を及ぼす可能性のあるエラーを起こしやすい。
このようなエラーを検知することを目的とした検査・自己評価モデルは、ADSの安全な配置において最重要となる。
論文 参考訳(メタデータ) (2024-05-13T10:03:03Z) - Run-time Introspection of 2D Object Detection in Automated Driving
Systems Using Learning Representations [13.529124221397822]
ディープニューラルネットワーク(DNN)に基づく2次元物体検出のための新しいイントロスペクションソリューションを提案する。
KITTIとBDDのデータセットで評価された1段階および2段階のオブジェクト検出器を用いて,2次元オブジェクト検出におけるエラー検出のためのSOTAイントロスペクション機構を実装した。
性能評価の結果,提案手法はSOTA法より優れており,BDDデータセットのエラー率を9%から17%まで絶対的に削減できることがわかった。
論文 参考訳(メタデータ) (2024-03-02T10:56:14Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Robustness and Generalization Performance of Deep Learning Models on
Cyber-Physical Systems: A Comparative Study [71.84852429039881]
調査は、センサーの故障やノイズなど、様々な摂動を扱うモデルの能力に焦点を当てている。
我々は,これらのモデルの一般化と伝達学習能力を,アウト・オブ・ディストリビューション(OOD)サンプルに公開することによって検証する。
論文 参考訳(メタデータ) (2023-06-13T12:43:59Z) - Detecting Irregular Network Activity with Adversarial Learning and
Expert Feedback [14.188603782159372]
CAADは、無線ネットワークにおける正常な動作と異常な動作の効果的な表現を学習するために、対向的な設定で対照的な学習を採用する。
我々はCAADの厳密な性能比較をいくつかの最先端異常検出技術と比較し、CAADが92.84%の平均性能改善をもたらすことを検証した。
論文 参考訳(メタデータ) (2022-10-01T20:44:14Z) - Improving Music Performance Assessment with Contrastive Learning [78.8942067357231]
本研究では,既存のMPAシステムを改善するための潜在的手法として,コントラスト学習について検討する。
畳み込みニューラルネットワークに適用された回帰タスクに適した重み付きコントラスト損失を導入する。
この結果から,MPA回帰タスクにおいて,コントラッシブ・ベースの手法がSoTA性能に適合し,超越できることが示唆された。
論文 参考訳(メタデータ) (2021-08-03T19:24:25Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。