論文の概要: STEAM & MoSAFE: SOTIF Error-and-Failure Model & Analysis for AI-Enabled
Driving Automation
- arxiv url: http://arxiv.org/abs/2312.09559v1
- Date: Fri, 15 Dec 2023 06:34:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 17:04:45.725271
- Title: STEAM & MoSAFE: SOTIF Error-and-Failure Model & Analysis for AI-Enabled
Driving Automation
- Title(参考訳): STEAM & MoSAFE:SOTIFエラー・障害モデルとAI対応運転自動化の解析
- Authors: Krzysztof Czarnecki and Hiroshi Kuwajima
- Abstract要約: 本稿では、SOTIF因果モデルの改良として、STEAM(SotIF Temporal Error and Failure Model)を定義した。
第2に,システム設計モデルに基づくSTEAMのインスタンス化が可能なモデルベースSOTIF解析法(MoSAFE)を提案する。
- 参考スコア(独自算出の注目度): 4.820785104084241
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driving Automation Systems (DAS) are subject to complex road environments and
vehicle behaviors and increasingly rely on sophisticated sensors and Artificial
Intelligence (AI). These properties give rise to unique safety faults stemming
from specification insufficiencies and technological performance limitations,
where sensors and AI introduce errors that vary in magnitude and temporal
patterns, posing potential safety risks. The Safety of the Intended
Functionality (SOTIF) standard emerges as a promising framework for addressing
these concerns, focusing on scenario-based analysis to identify hazardous
behaviors and their causes. Although the current standard provides a basic
cause-and-effect model and high-level process guidance, it lacks concepts
required to identify and evaluate hazardous errors, especially within the
context of AI.
This paper introduces two key contributions to bridge this gap. First, it
defines the SOTIF Temporal Error and Failure Model (STEAM) as a refinement of
the SOTIF cause-and-effect model, offering a comprehensive system-design
perspective. STEAM refines error definitions, introduces error sequences, and
classifies them as error sequence patterns, providing particular relevance to
systems employing advanced sensors and AI. Second, this paper proposes the
Model-based SOTIF Analysis of Failures and Errors (MoSAFE) method, which allows
instantiating STEAM based on system-design models by deriving hazardous error
sequence patterns at module level from hazardous behaviors at vehicle level via
weakest precondition reasoning. Finally, the paper presents a case study
centered on an automated speed-control feature, illustrating the practical
applicability of the refined model and the MoSAFE method in addressing complex
safety challenges in DAS.
- Abstract(参考訳): ドライビング・オートメーション・システムズ(DAS)は複雑な道路環境と車両の挙動を考慮し、高度なセンサーと人工知能(AI)に依存している。
これらの特性は、仕様の不十分さと技術的パフォーマンスの制限から生じるユニークな安全性の欠陥を引き起こし、センサーとAIは、大きさや時間的パターンの異なるエラーを導入し、潜在的な安全性リスクを生じさせる。
The Safety of the Intended Functionality (SOTIF) 標準はこれらの懸念に対処するための有望な枠組みとして登場し、危険行動とその原因を特定するシナリオベースの分析に焦点を当てている。
現在の標準は基本的な原因と効果のモデルと高レベルのプロセスガイダンスを提供するが、特にAIのコンテキストにおいて、有害なエラーを特定し評価するために必要な概念は欠如している。
本稿ではこのギャップを埋めるための2つの重要な貢献を紹介する。
まず、SOTIFの時間エラーと失敗モデル(STEAM)をSOTIFの因果モデルの改良として定義し、総合的なシステム設計の視点を提供する。
STEAMはエラー定義を洗練し、エラーシーケンスを導入し、エラーシーケンスパターンとして分類する。
第2に,システム設計モデルに基づく蒸気のインスタンス化を可能にするモデルに基づくsofif解析(mosafe)手法を提案する。
最後に,DASの複雑な安全性問題に対処するために,改良モデルとMoSAFE法の実用性を示す,自動速度制御機能を中心としたケーススタディを提案する。
関連論文リスト
- From Silos to Systems: Process-Oriented Hazard Analysis for AI Systems [2.226040060318401]
システム理論プロセス分析(STPA)をAIの操作と開発プロセスの解析に応用する。
我々は、機械学習アルゴリズムに依存したシステムと、3つのケーススタディに焦点をあてる。
私たちは、AIシステムに適したいくつかの適応があるにもかかわらず、anAを実行するための重要な概念とステップが容易に適用できることに気付きました。
論文 参考訳(メタデータ) (2024-10-29T20:43:18Z) - EAIRiskBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [47.69642609574771]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
EAIRiskBenchは、EAIシナリオにおける自動物理的リスクアセスメントのための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - High-Dimensional Fault Tolerance Testing of Highly Automated Vehicles Based on Low-Rank Models [39.139025989575686]
HAVの安全性を評価するために, フォールトインジェクション(FI)試験を実施している。
テストケースを完全にカバーするためには、さまざまな駆動シナリオと障害設定を検討する必要がある。
低ランクスムースネス正規化行列因子化フレームワークにおけるFI試験の高速化を提案する。
論文 参考訳(メタデータ) (2024-07-28T14:27:13Z) - PVF (Parameter Vulnerability Factor): A Scalable Metric for Understanding AI Vulnerability Against SDCs in Model Parameters [7.652441604508354]
脆弱性因子(Vulnerability Factor, PVF)は、AIモデル脆弱性のパラメータ破損に対する定量化を目標とする指標である。
PVFは、フォールトプロテクションとパフォーマンス/効率のトレードオフのバランスをとる上で、AIハードウェアデザイナに重要な洞察を提供することができる。
推論中にPVFを3種類のタスク/モデルに適用するためのユースケースとして、DLRM、ビジョン分類(CNN)、テキスト分類(BERT)を挙げる。
論文 参考訳(メタデータ) (2024-05-02T21:23:34Z) - Enhancing Functional Safety in Automotive AMS Circuits through Unsupervised Machine Learning [9.100418852199082]
AMS回路における早期異常検出のための教師なし機械学習に基づく新しいフレームワークを提案する。
提案手法では、様々な回路位置や個々のコンポーネントに異常を注入して、多種多様な総合的な異常データセットを作成する。
これらの異常条件下でのシステムの挙動をモニタリングすることにより、異常の伝播とその影響を異なる抽象レベルで捉える。
論文 参考訳(メタデータ) (2024-04-02T04:33:03Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Supporting Early-Safety Analysis of IoT Systems by Exploiting Testing
Techniques [9.095386349136717]
フェールロジック分析 FLAは、潜在的な障害シナリオを予測するテクニックである。
手動でFLAルールを指定すれば、不完全あるいは不正確な仕様につながる、厳しいエラーが発生します。
これらのルールの完全性と正確性を改善するために,テスト手法を採用することを提案する。
論文 参考訳(メタデータ) (2023-09-06T13:32:39Z) - Representing Timed Automata and Timing Anomalies of Cyber-Physical
Production Systems in Knowledge Graphs [51.98400002538092]
本稿では,学習されたタイムドオートマトンとシステムに関する公式知識グラフを組み合わせることで,CPPSのモデルベース異常検出を改善することを目的とする。
モデルと検出された異常の両方を知識グラフに記述し、モデルと検出された異常をより容易に解釈できるようにする。
論文 参考訳(メタデータ) (2023-08-25T15:25:57Z) - Fast and Accurate Error Simulation for CNNs against Soft Errors [64.54260986994163]
本稿では,誤りシミュレーションエンジンを用いて,コナールニューラルネットワーク(CNN)の信頼性解析のためのフレームワークを提案する。
これらの誤差モデルは、故障によって誘導されるCNN演算子の出力の破損パターンに基づいて定義される。
提案手法は,SASSIFIの欠陥効果の約99%の精度と,限定的なエラーモデルのみを実装した44倍から63倍までのスピードアップを実現する。
論文 参考訳(メタデータ) (2022-06-04T19:45:02Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - SafeAMC: Adversarial training for robust modulation recognition models [53.391095789289736]
通信システムには、Deep Neural Networks(DNN)モデルに依存する変調認識など、多くのタスクがある。
これらのモデルは、逆方向の摂動、すなわち、誤分類を引き起こすために作られた知覚不能な付加音に影響を受けやすいことが示されている。
本稿では,自動変調認識モデルのロバスト性を高めるために,逆方向の摂動を伴うモデルを微調整する逆方向トレーニングを提案する。
論文 参考訳(メタデータ) (2021-05-28T11:29:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。