論文の概要: The Open Autonomy Safety Case Framework
- arxiv url: http://arxiv.org/abs/2404.05444v1
- Date: Mon, 8 Apr 2024 12:26:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 18:32:03.676876
- Title: The Open Autonomy Safety Case Framework
- Title(参考訳): Open Autonomy Safety Case Framework
- Authors: Michael Wagner, Carmen Carlan,
- Abstract要約: 安全ケースは、自動運転車の安全性を測定し、管理し、通信するためのベストプラクティスとなっている。
本稿では,自動運転車産業との長年の連携によって開発されたオープン・オートノミー・セーフティ・ケース・フレームワークについて紹介する。
- 参考スコア(独自算出の注目度): 3.2995359570845917
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A system safety case is a compelling, comprehensible, and valid argument about the satisfaction of the safety goals of a given system operating in a given environment supported by convincing evidence. Since the publication of UL 4600 in 2020, safety cases have become a best practice for measuring, managing, and communicating the safety of autonomous vehicles (AVs). Although UL 4600 provides guidance on how to build the safety case for an AV, the complexity of AVs and their operating environments, the novelty of the used technology, the need for complying with various regulations and technical standards, and for addressing cybersecurity concerns and ethical considerations make the development of safety cases for AVs challenging. To this end, safety case frameworks have been proposed that bring strategies, argument templates, and other guidance together to support the development of a safety case. This paper introduces the Open Autonomy Safety Case Framework, developed over years of work with the autonomous vehicle industry, as a roadmap for how AVs can be deployed safely and responsibly.
- Abstract(参考訳): システムセーフティケースは、証拠証拠によって支持された所定の環境で運用されている所定のシステムの安全目標の満足度について、説得力があり、理解し、有効な議論である。
2020年にUL 4600が発行されて以来、安全ケースは自動運転車(AV)の安全性を測定し、管理し、通信するためのベストプラクティスとなっている。
UL 4600は、AVの安全ケースの構築方法、AVとその運用環境の複雑さ、使用済み技術の新規性、様々な規制や技術基準に従う必要性、そしてサイバーセキュリティの懸念と倫理的配慮に対処するために、AVの安全ケースの開発を困難にしている。
この目的のために、安全ケースの開発を支援するために戦略、引数テンプレート、その他のガイダンスをもたらす安全ケースフレームワークが提案されている。
本稿では,自律走行車産業との長年の取り組みの中で開発されたオープン・オートノミー・セーフティ・ケース・フレームワークについて,自律走行車に安全かつ責任を持って配置する方法のロードマップとして紹介する。
関連論文リスト
- Redefining Safety for Autonomous Vehicles [0.9208007322096532]
コンピュータベースのシステムの安全性に関する既存の定義と関連する概念的枠組みを再考する必要がある。
人間の運転者なしでの運転は、安全上の懸念を劇的に増大させる。
コアシステムの安全性に関する概念を更新する。
論文 参考訳(メタデータ) (2024-04-25T17:22:43Z) - ACCESS: Assurance Case Centric Engineering of Safety-critical Systems [9.388301205192082]
保証ケースは、安全性やセキュリティなどの重要なシステム特性について、コミュニケーションし、信頼性を評価するために使用されます。
近年,システム保証活動の効率化と品質向上のために,モデルに基づくシステム保証アプローチが普及している。
モデルに基づくシステム保証ケースが異種工学的アーティファクトにどのように辿り着くかを示す。
論文 参考訳(メタデータ) (2024-03-22T14:29:50Z) - Formal Modelling of Safety Architecture for Responsibility-Aware
Autonomous Vehicle via Event-B Refinement [1.45566585318013]
本稿では,AVの安全条件をモデル化し,導出し,証明する上での戦略と経験について述べる。
このケーススタディは、現在最先端のゴール認識型責任感性安全性モデルを対象として、周囲の車両との相互作用について議論する。
論文 参考訳(メタデータ) (2024-01-10T02:02:06Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - Deep Learning Safety Concerns in Automated Driving Perception [46.160790582092815]
本稿では、クロスファンクショナルなチームが共同で関心事に対処できるようにするとともに、理解を深めるための追加の分類を紹介します。
近年のディープラーニング分野の進歩と認識のためのディープニューラルネットワーク(DNN)の性能向上により、自動走行(AD)システムへの需要が高まっている。
論文 参考訳(メタデータ) (2023-09-07T15:25:47Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Building a Credible Case for Safety: Waymo's Approach for the
Determination of Absence of Unreasonable Risk [2.2386635730984117]
完全自律運転の安全ケースは、企業がAVシステムが安全であると判断する方法を説明する公式な方法である。
システムの説明、開発に使用する方法論、検証に使用するメトリクス、検証テストの実際の結果などが含まれる。
本稿では,システムの展開準備の仕方に関する基本的な考え方を提供することによって,このようなアライメントの実現を支援する。
論文 参考訳(メタデータ) (2023-06-02T21:05:39Z) - Safety of autonomous vehicles: A survey on Model-based vs. AI-based
approaches [1.370633147306388]
AVの全体制御アーキテクチャを定義するための関連手法と概念について検討する。
このレビュープロセスを通じて、モデルベースの方法とAIベースのアプローチのいずれかを使用する研究を強調することを意図している。
本稿では,安全性検証技術と安全フレームワークの標準化・一般化という,AVの安全性を保証するための手法について論じる。
論文 参考訳(メタデータ) (2023-05-29T08:05:32Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。