論文の概要: Safety Analysis of Autonomous Railway Systems: An Introduction to the SACRED Methodology
- arxiv url: http://arxiv.org/abs/2403.12114v1
- Date: Mon, 18 Mar 2024 11:12:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 18:41:45.033195
- Title: Safety Analysis of Autonomous Railway Systems: An Introduction to the SACRED Methodology
- Title(参考訳): 自律鉄道システムの安全分析--SACRED手法の紹介
- Authors: Josh Hunter, John McDermid, Simon Burton,
- Abstract要約: 本稿では,自律システムの初期安全ケースを作成するための安全手法であるSACREDを紹介する。
SACREDの開発は、ベルリンで提案されたGoA-4ライトレールシステムによって動機付けられている。
- 参考スコア(独自算出の注目度): 2.47737926497181
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the railway industry increasingly seeks to introduce autonomy and machine learning (ML), several questions arise. How can safety be assured for such systems and technologies? What is the applicability of current safety standards within this new technological landscape? What are the key metrics to classify a system as safe? Currently, safety analysis for the railway reflects the failure modes of existing technology; in contrast, the primary concern of analysis of automation is typically average performance. Such purely statistical approaches to measuring ML performance are limited, as they may overlook classes of situations that may occur rarely but in which the function performs consistently poorly. To combat these difficulties we introduce SACRED, a safety methodology for producing an initial safety case and determining important safety metrics for autonomous systems. The development of SACRED is motivated by the proposed GoA-4 light-rail system in Berlin.
- Abstract(参考訳): 鉄道産業は、自律性と機械学習(ML)の導入をますます求めているため、いくつかの疑問が浮かび上がっている。
このようなシステムや技術に対して、どうやって安全性を確保することができるのか?
この新たな技術分野における現在の安全基準の適用性はどのようなものか?
システムを安全に分類するための重要な指標は何ですか?
現在、鉄道における安全分析は、既存の技術の故障モードを反映しており、対照的に、自動化の分析の主な関心事は、通常平均的な性能である。
このような純粋に統計的にMLのパフォーマンスを測定するアプローチは制限されている。
これらの課題に対処するため、我々は、初期安全ケースを作成し、自律システムにとって重要な安全基準を決定する安全方法論であるSACREDを紹介した。
SACREDの開発は、ベルリンで提案されたGoA-4ライトレールシステムによって動機付けられている。
関連論文リスト
- Where AI Assurance Might Go Wrong: Initial lessons from engineering of critical systems [0.0]
クリティカルシステムの観点からは、AIセーフティフレームワークの開発と実装をサポートする可能性がある。
システムとは何か?どのくらい良いのか?
我々は,アシュアランス2.0に基づく保証事例の活用を提唱し,決定の臨界性とシステムの臨界性を評価する意思決定を支援する。
論文 参考訳(メタデータ) (2025-01-07T22:02:23Z) - Landscape of AI safety concerns -- A methodology to support safety assurance for AI-based autonomous systems [0.0]
AIは重要な技術として登場し、さまざまなアプリケーションにまたがる進歩を加速している。
AIコンポーネントを組み込んだシステムの安全性を確保するという課題は、極めて重要である。
本稿では,AIシステムにおける安全保証事例作成を支援する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-18T16:38:16Z) - SafetyAnalyst: Interpretable, transparent, and steerable safety moderation for AI behavior [56.10557932893919]
我々は、新しいAI安全モデレーションフレームワークであるSafetyAnalystを紹介する。
AIの振る舞いを考えると、SafetyAnalystはチェーン・オブ・シークレット・推論を使用してその潜在的な結果を分析する。
あらゆる有害かつ有益な効果を、完全に解釈可能な重みパラメータを用いて有害度スコアに集約する。
論文 参考訳(メタデータ) (2024-10-22T03:38:37Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Safe Inputs but Unsafe Output: Benchmarking Cross-modality Safety Alignment of Large Vision-Language Model [73.8765529028288]
我々は、モダリティ間の安全アライメントを評価するために、セーフインプットとアンセーフアウトプット(SIUO)と呼ばれる新しい安全アライメントの課題を導入する。
この問題を実証的に調査するため,我々はSIUOを作成した。SIUOは,自己修復,違法行為,プライバシー侵害など,9つの重要な安全領域を含むクロスモダリティベンチマークである。
以上の結果から, クローズドおよびオープンソース両方のLVLMの安全性上の重大な脆弱性が明らかとなり, 複雑で現実的なシナリオを確実に解釈し, 応答する上で, 現行モデルが不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T16:14:15Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Unsolved Problems in ML Safety [45.82027272958549]
研究の準備ができている4つの問題、すなわち、ハザードを克服し、ハザードを特定し、MLシステムを操り、MLシステムの扱い方に対するリスクを低減する。
それぞれの問題のモチベーションを明確にし、具体的な研究指針を提供する。
論文 参考訳(メタデータ) (2021-09-28T17:59:36Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Scalable Learning of Safety Guarantees for Autonomous Systems using
Hamilton-Jacobi Reachability [18.464688553299663]
Hamilton-Jacobiリーチビリティのような方法は、そのようなシステムに保証された安全セットとコントローラを提供することができる。
システムが稼働中は、これらの不確実性に関する新たな知識を学習し、それに従って安全性分析を更新する必要がある。
本稿では,分解,ウォームスタート,アダプティブグリッドなど,計算を高速化するいくつかの手法を合成する。
論文 参考訳(メタデータ) (2021-01-15T00:13:01Z) - Learning to be Safe: Deep RL with a Safety Critic [72.00568333130391]
安全なRLへの自然な第一のアプローチは、ポリシーの動作に関する制約を手動で指定することである。
我々は,タスクと環境の1つのセットで安全であることを学習し,その学習した直観を用いて将来の行動を制限することを提案する。
論文 参考訳(メタデータ) (2020-10-27T20:53:20Z) - Safety design concepts for statistical machine learning components
toward accordance with functional safety standards [0.38073142980732994]
近年,統計機械学習の誤判定により,キュリアルな事故や事故が報告されている。
本稿では,機能安全基準に従って,コンポーネントに対する5種類の技術安全概念(TSC)を整理する。
論文 参考訳(メタデータ) (2020-08-04T01:01:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。