論文の概要: Robust and Safe Traffic Sign Recognition using N-version with Weighted Voting
- arxiv url: http://arxiv.org/abs/2507.06907v1
- Date: Wed, 09 Jul 2025 14:46:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.628495
- Title: Robust and Safe Traffic Sign Recognition using N-version with Weighted Voting
- Title(参考訳): 軽量投票を用いたN-versionによるロバストかつ安全な交通信号認識
- Authors: Linyun Gao, Qiang Wen, Fumio Machida,
- Abstract要約: N-version machine learning (NVML) フレームワークを提案する。
本手法では、FMEA(Failure Mode and Effects Analysis)を用いて、潜在的な安全性リスクを評価し、アンサンブル出力に動的で安全性に配慮した重みを割り当てる。
実験により,NVML手法は,対向条件下での交通標識認識システムの堅牢性と安全性を著しく向上させることが示された。
- 参考スコア(独自算出の注目度): 5.087405608698016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous driving is rapidly advancing as a key application of machine learning, yet ensuring the safety of these systems remains a critical challenge. Traffic sign recognition, an essential component of autonomous vehicles, is particularly vulnerable to adversarial attacks that can compromise driving safety. In this paper, we propose an N-version machine learning (NVML) framework that integrates a safety-aware weighted soft voting mechanism. Our approach utilizes Failure Mode and Effects Analysis (FMEA) to assess potential safety risks and assign dynamic, safety-aware weights to the ensemble outputs. We evaluate the robustness of three-version NVML systems employing various voting mechanisms against adversarial samples generated using the Fast Gradient Sign Method (FGSM) and Projected Gradient Descent (PGD) attacks. Experimental results demonstrate that our NVML approach significantly enhances the robustness and safety of traffic sign recognition systems under adversarial conditions.
- Abstract(参考訳): 自動運転は機械学習の重要な応用として急速に進歩していますが、これらのシステムの安全性を保証することは依然として重要な課題です。
自動運転車の重要な構成要素である交通標識認識は、特に運転安全性を損なう敵の攻撃に対して脆弱である。
本論文では,N-version machine learning (NVML) フレームワークを提案する。
本手法では、FMEA(Failure Mode and Effects Analysis)を用いて、潜在的な安全性リスクを評価し、アンサンブル出力に動的で安全性に配慮した重みを割り当てる。
我々は,FGSM(Fast Gradient Sign Method)とPGD(Projected Gradient Descent)を併用した,様々な投票機構を用いた3バージョンNVMLシステムのロバスト性を評価する。
実験により,NVML手法は,対向条件下での交通標識認識システムの堅牢性と安全性を著しく向上させることが示された。
関連論文リスト
- Incorporating Failure of Machine Learning in Dynamic Probabilistic Safety Assurance [0.1398098625978622]
より広範な因果安全分析の一環として, SafeML と Bayesian Networks (BNs) を統合する安全保証フレームワークを導入し, ML 障害をモデル化する。
交通標識認識を用いた自動車小隊のシミュレーションシステムに対するアプローチを実証する。
論文 参考訳(メタデータ) (2025-06-07T17:16:05Z) - D4+: Emergent Adversarial Driving Maneuvers with Approximate Functional Optimization [3.763470738887407]
我々は、自動運転車と相互作用する悪意のあるドライバーの影響を特定するために、形式的な手法でシナリオベースのフレームワークを実装した。
われわれの結果は、悪質なドライバーが現代の車両の自律的機能を利用するのを防ぐ安全な運転行動の範囲をデザイナーが特定するのに役立つ。
論文 参考訳(メタデータ) (2025-05-20T05:22:03Z) - Safety Interventions against Adversarial Patches in an Open-Source Driver Assistance System [5.685434934401208]
認識入力を標的とする安全クリティカルアタックに対して,広く使用されているADASのレジリエンスを評価する。
様々な安全機構をシミュレートして、攻撃軽減効果とADASレジリエンスの強化効果を評価する。
論文 参考訳(メタデータ) (2025-04-26T18:28:35Z) - SafeCast: Risk-Responsive Motion Forecasting for Autonomous Vehicles [12.607007386467329]
リスク応答型モーション予測モデルであるSafeCastを提案する。
安全を意識した意思決定と不確実性を意識した適応性を統合する。
我々のモデルは、軽量なアーキテクチャと低推論レイテンシを維持しながら、最先端(SOTA)の精度を実現する。
論文 参考訳(メタデータ) (2025-03-28T15:38:21Z) - SafeAuto: Knowledge-Enhanced Safe Autonomous Driving with Multimodal Foundation Models [63.71984266104757]
我々は、構造化されていない知識と構造化されていない知識の両方を取り入れることで、MLLMベースの自動運転を強化するフレームワークであるSafeAutoを提案する。
安全知識を明示的に統合するため,交通ルールを一階述語論理に変換する推論コンポーネントを開発した。
我々のマルチモーダル検索・拡張生成モデルは、過去の運転経験から学ぶために、ビデオ、制御信号、環境特性を活用する。
論文 参考訳(メタデータ) (2025-02-28T21:53:47Z) - SafetyAnalyst: Interpretable, Transparent, and Steerable Safety Moderation for AI Behavior [56.10557932893919]
我々は、新しいAI安全モデレーションフレームワークであるSafetyAnalystを紹介する。
AIの振る舞いを考えると、SafetyAnalystはチェーン・オブ・シークレット・推論を使用してその潜在的な結果を分析する。
効果を28個の完全に解釈可能な重みパラメータを使って有害度スコアに集約する。
論文 参考訳(メタデータ) (2024-10-22T03:38:37Z) - On the Vulnerability of LLM/VLM-Controlled Robotics [54.57914943017522]
大規模言語モデル(LLM)と視覚言語モデル(VLM)を統合するロボットシステムの脆弱性を,入力モダリティの感度によって強調する。
LLM/VLM制御型2つのロボットシステムにおいて,単純な入力摂動がタスク実行の成功率を22.2%,14.6%減少させることを示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。