論文の概要: On STPA for Distributed Development of Safe Autonomous Driving: An Interview Study
- arxiv url: http://arxiv.org/abs/2403.09509v1
- Date: Thu, 14 Mar 2024 15:56:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-15 19:47:59.982826
- Title: On STPA for Distributed Development of Safe Autonomous Driving: An Interview Study
- Title(参考訳): 安全な自動運転の分散開発のためのSTPAについて:インタビュー研究
- Authors: Ali Nouri, Christian Berger, Fredrik Törner,
- Abstract要約: System-Theoretic Process Analysis (STPA)は、防衛や航空宇宙といった安全関連分野に適用される新しい手法である。
STPAは、分散システム開発とマルチアトラクション設計レベルを備えた自動車システム工学において、完全には有効でない前提条件を前提としている。
これは継続的開発とデプロイメントにおける保守性の問題と見なすことができる。
- 参考スコア(独自算出の注目度): 0.7851536646859475
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Safety analysis is used to identify hazards and build knowledge during the design phase of safety-relevant functions. This is especially true for complex AI-enabled and software intensive systems such as Autonomous Drive (AD). System-Theoretic Process Analysis (STPA) is a novel method applied in safety-related fields like defense and aerospace, which is also becoming popular in the automotive industry. However, STPA assumes prerequisites that are not fully valid in the automotive system engineering with distributed system development and multi-abstraction design levels. This would inhibit software developers from using STPA to analyze their software as part of a bigger system, resulting in a lack of traceability. This can be seen as a maintainability challenge in continuous development and deployment (DevOps). In this paper, STPA's different guidelines for the automotive industry, e.g. J31887/ISO21448/STPA handbook, are firstly compared to assess their applicability to the distributed development of complex AI-enabled systems like AD. Further, an approach to overcome the challenges of using STPA in a multi-level design context is proposed. By conducting an interview study with automotive industry experts for the development of AD, the challenges are validated and the effectiveness of the proposed approach is evaluated.
- Abstract(参考訳): 安全分析は、安全関連機能の設計フェーズにおいて、ハザードを特定し、知識を構築するために用いられる。
これは、Autonomous Drive (AD)のような複雑なAI対応およびソフトウェア集約システムに特に当てはまる。
System-Theoretic Process Analysis (STPA)は、防衛や航空宇宙といった安全関連分野に適用される新しい手法であり、自動車産業でも普及している。
しかし、STPAは、分散システム開発とマルチアトラクション設計レベルを備えた自動車システム工学において、完全には有効でない前提条件を前提としている。
これにより、ソフトウェア開発者は、より大きなシステムの一部としてソフトウェアを分析するためにSTPAを使用するのを妨げ、結果としてトレーサビリティが欠如する。
これは継続的開発とデプロイメント(DevOps)における保守性の問題と見なすことができる。
本稿では、自動車産業におけるSTPAの異なるガイドラインであるJ31887/ISO21448/STPAハンドブックを比較し、ADのような複雑なAI対応システムの分散開発への適用性を評価する。
さらに,マルチレベル設計におけるSTPAの課題を克服する手法を提案する。
自動車業界の専門家を対象にAD開発に関するインタビュー研究を行い,課題を検証し,提案手法の有効性を評価する。
関連論文リスト
- An Industrial Experience Report about Challenges from Continuous Monitoring, Improvement, and Deployment for Autonomous Driving Features [0.7851536646859475]
本稿では,CDDM導入に向けた自動車分野からの課題について述べる。
CDDM戦略の適用はまた、プロセスの遵守とドキュメントの観点からも課題に直面します。
論文 参考訳(メタデータ) (2024-03-14T15:14:24Z) - Inherent Diverse Redundant Safety Mechanisms for AI-based Software
Elements in Automotive Applications [1.6495054381576084]
本稿では,自律走行システムにおける人工知能(AI)アルゴリズムの役割と課題について考察する。
主な関心事は、AIモデルの初期のトレーニングデータを超えて一般化する能力(と必要性)に関連している。
本稿では、自律運転のような安全クリティカルなアプリケーションにおける過信AIモデルに関連するリスクについて検討する。
論文 参考訳(メタデータ) (2024-02-13T04:15:26Z) - Empowering Autonomous Driving with Large Language Models: A Safety
Perspective [86.47444945343013]
本稿では,大規模言語モデル(LLM)の自律運転システムへの統合を提唱する。
アプローチの有効性を実証する2つのケーススタディの結果を報告する。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Simulation-based Safety Assurance for an AVP System incorporating
Learning-Enabled Components [0.6526824510982802]
テスト、検証、検証 AD/ADASセーフティクリティカルなアプリケーションが大きな課題のひとつとして残っています。
安全クリティカルな学習可能システムの検証と検証を目的としたシミュレーションベースの開発プラットフォームについて説明する。
論文 参考訳(メタデータ) (2023-09-28T09:00:31Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Developing an AI-enabled IIoT platform -- Lessons learned from early use
case validation [47.37985501848305]
本稿では,このプラットフォームの設計について紹介し,AIによる視覚的品質検査の実証者の観点からの早期評価について述べる。
これは、この初期の評価活動で学んだ洞察と教訓によって補完される。
論文 参考訳(メタデータ) (2022-07-10T18:51:12Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Towards Safe, Explainable, and Regulated Autonomous Driving [11.043966021881426]
本稿では、自律制御、説明可能なAI(XAI)、規制コンプライアンスを統合するフレームワークを提案する。
フレームワークの目標を達成するのに役立つ、関連するXAIアプローチについて説明します。
論文 参考訳(メタデータ) (2021-11-20T05:06:22Z) - Developing and Operating Artificial Intelligence Models in Trustworthy
Autonomous Systems [8.27310353898034]
このワーク・イン・プログレス・ペーパーはAIベースのASの開発と運用のギャップを埋めることを目的としている。
私たちはそれを実践するために、新しく包括的なDevOpsアプローチを提案します。
論文 参考訳(メタデータ) (2020-03-11T17:52:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。