論文の概要: STEAM & MoSAFE: SOTIF Error-and-Failure Model & Analysis for AI-Enabled
Driving Automation
- arxiv url: http://arxiv.org/abs/2312.09559v2
- Date: Tue, 9 Jan 2024 03:46:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 19:10:15.812500
- Title: STEAM & MoSAFE: SOTIF Error-and-Failure Model & Analysis for AI-Enabled
Driving Automation
- Title(参考訳): STEAM & MoSAFE:SOTIFエラー・障害モデルとAI対応運転自動化の解析
- Authors: Krzysztof Czarnecki and Hiroshi Kuwajima
- Abstract要約: 本稿では、SOTIF因果モデルの改良として、STEAM(SotIF Temporal Error and Failure Model)を定義した。
第2に,システム設計モデルに基づくSTEAMのインスタンス化が可能なモデルベースSOTIF解析法(MoSAFE)を提案する。
- 参考スコア(独自算出の注目度): 4.820785104084241
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driving Automation Systems (DAS) are subject to complex road environments and
vehicle behaviors and increasingly rely on sophisticated sensors and Artificial
Intelligence (AI). These properties give rise to unique safety faults stemming
from specification insufficiencies and technological performance limitations,
where sensors and AI introduce errors that vary in magnitude and temporal
patterns, posing potential safety risks. The Safety of the Intended
Functionality (SOTIF) standard emerges as a promising framework for addressing
these concerns, focusing on scenario-based analysis to identify hazardous
behaviors and their causes. Although the current standard provides a basic
cause-and-effect model and high-level process guidance, it lacks concepts
required to identify and evaluate hazardous errors, especially within the
context of AI.
This paper introduces two key contributions to bridge this gap. First, it
defines the SOTIF Temporal Error and Failure Model (STEAM) as a refinement of
the SOTIF cause-and-effect model, offering a comprehensive system-design
perspective. STEAM refines error definitions, introduces error sequences, and
classifies them as error sequence patterns, providing particular relevance to
systems employing advanced sensors and AI. Second, this paper proposes the
Model-based SOTIF Analysis of Failures and Errors (MoSAFE) method, which allows
instantiating STEAM based on system-design models by deriving hazardous error
sequence patterns at module level from hazardous behaviors at vehicle level via
weakest precondition reasoning. Finally, the paper presents a case study
centered on an automated speed-control feature, illustrating the practical
applicability of the refined model and the MoSAFE method in addressing complex
safety challenges in DAS.
- Abstract(参考訳): ドライビング・オートメーション・システムズ(DAS)は複雑な道路環境と車両の挙動を考慮し、高度なセンサーと人工知能(AI)に依存している。
これらの特性は、仕様の不十分さと技術的パフォーマンスの制限から生じるユニークな安全性の欠陥を引き起こし、センサーとAIは、大きさや時間的パターンの異なるエラーを導入し、潜在的な安全性リスクを生じさせる。
The Safety of the Intended Functionality (SOTIF) 標準はこれらの懸念に対処するための有望な枠組みとして登場し、危険行動とその原因を特定するシナリオベースの分析に焦点を当てている。
現在の標準は基本的な原因と効果のモデルと高レベルのプロセスガイダンスを提供するが、特にAIのコンテキストにおいて、有害なエラーを特定し評価するために必要な概念は欠如している。
本稿ではこのギャップを埋めるための2つの重要な貢献を紹介する。
まず、SOTIFの時間エラーと失敗モデル(STEAM)をSOTIFの因果モデルの改良として定義し、総合的なシステム設計の視点を提供する。
STEAMはエラー定義を洗練し、エラーシーケンスを導入し、エラーシーケンスパターンとして分類する。
第2に,システム設計モデルに基づく蒸気のインスタンス化を可能にするモデルに基づくsofif解析(mosafe)手法を提案する。
最後に,DASの複雑な安全性問題に対処するために,改良モデルとMoSAFE法の実用性を示す,自動速度制御機能を中心としたケーススタディを提案する。
関連論文リスト
- FaultProfIT: Hierarchical Fault Profiling of Incident Tickets in
Large-scale Cloud Systems [35.310727641258715]
本稿では,インシデントチケットの自動プロファイリング手法であるFaultProfITを提案する。
階層型指導型コントラスト学習を利用して、階層型インシデントエンコーダをトレーニングし、インシデント表現を強化したフォールトパターンを予測する。
これまで、FactProfITは30以上のクラウドサービスから1万以上のインシデントを分析し、システム改善を知らせるいくつかの障害トレンドを明らかにした。
論文 参考訳(メタデータ) (2024-02-27T15:14:19Z) - Inherent Diverse Redundant Safety Mechanisms for AI-based Software
Elements in Automotive Applications [1.6495054381576084]
本稿では,自律走行システムにおける人工知能(AI)アルゴリズムの役割と課題について考察する。
主な関心事は、AIモデルの初期のトレーニングデータを超えて一般化する能力(と必要性)に関連している。
本稿では、自律運転のような安全クリティカルなアプリケーションにおける過信AIモデルに関連するリスクについて検討する。
論文 参考訳(メタデータ) (2024-02-13T04:15:26Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Supporting Early-Safety Analysis of IoT Systems by Exploiting Testing
Techniques [9.095386349136717]
フェールロジック分析 FLAは、潜在的な障害シナリオを予測するテクニックである。
手動でFLAルールを指定すれば、不完全あるいは不正確な仕様につながる、厳しいエラーが発生します。
これらのルールの完全性と正確性を改善するために,テスト手法を採用することを提案する。
論文 参考訳(メタデータ) (2023-09-06T13:32:39Z) - Representing Timed Automata and Timing Anomalies of Cyber-Physical
Production Systems in Knowledge Graphs [51.98400002538092]
本稿では,学習されたタイムドオートマトンとシステムに関する公式知識グラフを組み合わせることで,CPPSのモデルベース異常検出を改善することを目的とする。
モデルと検出された異常の両方を知識グラフに記述し、モデルと検出された異常をより容易に解釈できるようにする。
論文 参考訳(メタデータ) (2023-08-25T15:25:57Z) - Grasping Causality for the Explanation of Criticality for Automated
Driving [0.0]
本研究では,自動走行における安全関連要因の因果的理解を促進する因果的クエリの形式化を提案する。
ジュデア・パールの因果論に基づいて、因果関係を文脈とともに因果構造として定義する。
因果クエリに対する応答を正当に推定するには,データの可用性と品質が不可欠であるため,実世界および合成データ取得の要件についても論じる。
論文 参考訳(メタデータ) (2022-10-27T12:37:00Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Fast and Accurate Error Simulation for CNNs against Soft Errors [64.54260986994163]
本稿では,誤りシミュレーションエンジンを用いて,コナールニューラルネットワーク(CNN)の信頼性解析のためのフレームワークを提案する。
これらの誤差モデルは、故障によって誘導されるCNN演算子の出力の破損パターンに基づいて定義される。
提案手法は,SASSIFIの欠陥効果の約99%の精度と,限定的なエラーモデルのみを実装した44倍から63倍までのスピードアップを実現する。
論文 参考訳(メタデータ) (2022-06-04T19:45:02Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - SafeAMC: Adversarial training for robust modulation recognition models [53.391095789289736]
通信システムには、Deep Neural Networks(DNN)モデルに依存する変調認識など、多くのタスクがある。
これらのモデルは、逆方向の摂動、すなわち、誤分類を引き起こすために作られた知覚不能な付加音に影響を受けやすいことが示されている。
本稿では,自動変調認識モデルのロバスト性を高めるために,逆方向の摂動を伴うモデルを微調整する逆方向トレーニングを提案する。
論文 参考訳(メタデータ) (2021-05-28T11:29:04Z) - Monitoring and Diagnosability of Perception Systems [21.25149064251918]
本稿では,認識システムにおける実行時モニタリングと故障検出と識別のための数学的モデルを提案する。
本稿では,LGSVL自動運転シミュレータとApollo Auto自動運転ソフトウェアスタックを用いた実写シミュレーションにおいて,PerSySと呼ばれるモニタリングシステムを実演する。
論文 参考訳(メタデータ) (2020-11-11T23:03:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。