論文の概要: Safety Analysis of Autonomous Railway Systems: An Introduction to the SACRED Methodology
- arxiv url: http://arxiv.org/abs/2403.12114v1
- Date: Mon, 18 Mar 2024 11:12:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 18:41:45.033195
- Title: Safety Analysis of Autonomous Railway Systems: An Introduction to the SACRED Methodology
- Title(参考訳): 自律鉄道システムの安全分析--SACRED手法の紹介
- Authors: Josh Hunter, John McDermid, Simon Burton,
- Abstract要約: 本稿では,自律システムの初期安全ケースを作成するための安全手法であるSACREDを紹介する。
SACREDの開発は、ベルリンで提案されたGoA-4ライトレールシステムによって動機付けられている。
- 参考スコア(独自算出の注目度): 2.47737926497181
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the railway industry increasingly seeks to introduce autonomy and machine learning (ML), several questions arise. How can safety be assured for such systems and technologies? What is the applicability of current safety standards within this new technological landscape? What are the key metrics to classify a system as safe? Currently, safety analysis for the railway reflects the failure modes of existing technology; in contrast, the primary concern of analysis of automation is typically average performance. Such purely statistical approaches to measuring ML performance are limited, as they may overlook classes of situations that may occur rarely but in which the function performs consistently poorly. To combat these difficulties we introduce SACRED, a safety methodology for producing an initial safety case and determining important safety metrics for autonomous systems. The development of SACRED is motivated by the proposed GoA-4 light-rail system in Berlin.
- Abstract(参考訳): 鉄道産業は、自律性と機械学習(ML)の導入をますます求めているため、いくつかの疑問が浮かび上がっている。
このようなシステムや技術に対して、どうやって安全性を確保することができるのか?
この新たな技術分野における現在の安全基準の適用性はどのようなものか?
システムを安全に分類するための重要な指標は何ですか?
現在、鉄道における安全分析は、既存の技術の故障モードを反映しており、対照的に、自動化の分析の主な関心事は、通常平均的な性能である。
このような純粋に統計的にMLのパフォーマンスを測定するアプローチは制限されている。
これらの課題に対処するため、我々は、初期安全ケースを作成し、自律システムにとって重要な安全基準を決定する安全方法論であるSACREDを紹介した。
SACREDの開発は、ベルリンで提案されたGoA-4ライトレールシステムによって動機付けられている。
関連論文リスト
- Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Unsolved Problems in ML Safety [45.82027272958549]
研究の準備ができている4つの問題、すなわち、ハザードを克服し、ハザードを特定し、MLシステムを操り、MLシステムの扱い方に対するリスクを低減する。
それぞれの問題のモチベーションを明確にし、具体的な研究指針を提供する。
論文 参考訳(メタデータ) (2021-09-28T17:59:36Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Scalable Learning of Safety Guarantees for Autonomous Systems using
Hamilton-Jacobi Reachability [18.464688553299663]
Hamilton-Jacobiリーチビリティのような方法は、そのようなシステムに保証された安全セットとコントローラを提供することができる。
システムが稼働中は、これらの不確実性に関する新たな知識を学習し、それに従って安全性分析を更新する必要がある。
本稿では,分解,ウォームスタート,アダプティブグリッドなど,計算を高速化するいくつかの手法を合成する。
論文 参考訳(メタデータ) (2021-01-15T00:13:01Z) - Learning to be Safe: Deep RL with a Safety Critic [72.00568333130391]
安全なRLへの自然な第一のアプローチは、ポリシーの動作に関する制約を手動で指定することである。
我々は,タスクと環境の1つのセットで安全であることを学習し,その学習した直観を用いて将来の行動を制限することを提案する。
論文 参考訳(メタデータ) (2020-10-27T20:53:20Z) - Safety design concepts for statistical machine learning components
toward accordance with functional safety standards [0.38073142980732994]
近年,統計機械学習の誤判定により,キュリアルな事故や事故が報告されている。
本稿では,機能安全基準に従って,コンポーネントに対する5種類の技術安全概念(TSC)を整理する。
論文 参考訳(メタデータ) (2020-08-04T01:01:00Z) - Safe reinforcement learning for probabilistic reachability and safety
specifications: A Lyapunov-based approach [2.741266294612776]
安全運転の最大確率を学習するモデルフリー安全仕様法を提案する。
提案手法は, 各政策改善段階を抑制するための安全な政策に関して, リャプノフ関数を構築する。
安全集合と呼ばれる安全な操作範囲を決定する一連の安全なポリシーを導出する。
論文 参考訳(メタデータ) (2020-02-24T09:20:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。