論文の概要: Explaining Unreliable Perception in Automated Driving: A Fuzzy-based Monitoring Approach
- arxiv url: http://arxiv.org/abs/2505.14407v1
- Date: Tue, 20 May 2025 14:22:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.348678
- Title: Explaining Unreliable Perception in Automated Driving: A Fuzzy-based Monitoring Approach
- Title(参考訳): 自動運転における信頼できない知覚の説明:ファジィに基づくモニタリングアプローチ
- Authors: Aniket Salvi, Gereon Weiss, Mario Trapp,
- Abstract要約: 本稿では,機械学習(ML)知覚コンポーネントに適したファジィベースの新しいモニタを提案する。
異なる動作条件が知覚コンポーネントの信頼性にどのように影響するかを人間に解釈可能な説明を提供するとともに、ランタイム安全モニターとして機能する。
- 参考スコア(独自算出の注目度): 1.33134751838052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous systems that rely on Machine Learning (ML) utilize online fault tolerance mechanisms, such as runtime monitors, to detect ML prediction errors and maintain safety during operation. However, the lack of human-interpretable explanations for these errors can hinder the creation of strong assurances about the system's safety and reliability. This paper introduces a novel fuzzy-based monitor tailored for ML perception components. It provides human-interpretable explanations about how different operating conditions affect the reliability of perception components and also functions as a runtime safety monitor. We evaluated our proposed monitor using naturalistic driving datasets as part of an automated driving case study. The interpretability of the monitor was evaluated and we identified a set of operating conditions in which the perception component performs reliably. Additionally, we created an assurance case that links unit-level evidence of \textit{correct} ML operation to system-level \textit{safety}. The benchmarking demonstrated that our monitor achieved a better increase in safety (i.e., absence of hazardous situations) while maintaining availability (i.e., ability to perform the mission) compared to state-of-the-art runtime ML monitors in the evaluated dataset.
- Abstract(参考訳): 機械学習(ML)に依存する自律システムは、ランタイムモニタなどのオンラインフォールトトレランスメカニズムを使用して、ML予測エラーを検出し、運用中の安全性を維持する。
しかしながら、これらのエラーに対する人間解釈可能な説明が欠如していることは、システムの安全性と信頼性に関する強い保証の作成を妨げる可能性がある。
本稿では,ML知覚コンポーネントに適したファジィベースの新しいモニタを提案する。
異なる動作条件が知覚コンポーネントの信頼性にどのように影響するかを人間に解釈可能な説明を提供するとともに、ランタイム安全モニターとして機能する。
自動走行ケーススタディの一環として,自然主義運転データセットを用いて提案したモニタを評価した。
モニタの解釈可能性を評価し,認識成分が確実に機能する一連の動作条件を特定した。
さらに,システムレベルの \textit{safety} に \textit{correct} ML 操作の単位レベルのエビデンスをリンクする保証ケースを作成した。
ベンチマークでは、評価データセットの最先端のMLモニタと比較して、可用性(ミッションを実行する能力)を維持しながら、我々のモニターの安全性の向上(すなわち有害な状況の欠如)を実証した。
関連論文リスト
- SafeAuto: Knowledge-Enhanced Safe Autonomous Driving with Multimodal Foundation Models [63.71984266104757]
MLLM(Multimodal Large Language Models)は、視覚データとテキストデータの両方を処理する。
構造化されていない知識と構造化されていない知識の両方を取り入れることでMLLMベースの自動運転システムを強化する新しいフレームワークであるSafeAutoを提案する。
論文 参考訳(メタデータ) (2025-02-28T21:53:47Z) - Safety Monitoring of Machine Learning Perception Functions: a Survey [7.193217430660011]
機械学習の予測が安全クリティカルなアプリケーションで使用されるとき、新しい信頼性の課題が発生する。
安全モニタなどのフォールトトレランス機構の使用は、システムの安全な動作を保証するために不可欠である。
本稿では,MLを用いた認識機能の安全性監視に関する文献的考察を行う。
論文 参考訳(メタデータ) (2024-12-09T10:58:50Z) - Learning Run-time Safety Monitors for Machine Learning Components [8.022333445774382]
本稿では、劣化データセットと機械学習を用いて、機械学習コンポーネントの安全モニタを作成するプロセスを紹介する。
作成した安全モニタは、MLコンポーネントと並行してASにデプロイされ、モデル出力に関連する安全リスクの予測を提供する。
論文 参考訳(メタデータ) (2024-06-23T21:25:06Z) - System Safety Monitoring of Learned Components Using Temporal Metric Forecasting [8.76735390039138]
学習可能な自律システムにおいて、学習したコンポーネントの安全性監視は、その出力がシステムの安全性違反に結びつかないことを保証するために不可欠である。
本稿では,確率的時系列予測に基づく安全監視手法を提案する。
安全度と違反予測精度を実証的に評価し、4つの最先端モデルの推論遅延とリソース使用率について検討した。
論文 参考訳(メタデータ) (2024-05-21T23:48:26Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Unifying Evaluation of Machine Learning Safety Monitors [0.0]
ランタイムモニタは、予測エラーを検出し、オペレーション中にシステムを安全な状態に保つために開発された。
本稿では、モニタの安全性(安全利得)と使用後の残りの安全ギャップ(残留ハザード)の3つの統合安全指向指標を紹介する。
3つのユースケース(分類、ドローン着陸、自律走行)は、提案されたメトリクスの観点から、文献からのメトリクスをどのように表現できるかを示すために使用される。
論文 参考訳(メタデータ) (2022-08-31T07:17:42Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Benchmarking Safety Monitors for Image Classifiers with Machine Learning [0.0]
高精度機械学習(ML)画像分類器は、動作時に失敗しないことを保証できない。
安全モニタなどのフォールトトレランス機構の使用は,システムを安全な状態に保つ上で有望な方向である。
本稿では,ML画像分類器のベンチマークを行うためのベースラインフレームワークを確立することを目的とする。
論文 参考訳(メタデータ) (2021-10-04T07:52:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。