論文の概要: Developing Compelling Safety Cases
- arxiv url: http://arxiv.org/abs/2502.00911v1
- Date: Sun, 02 Feb 2025 20:47:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:21:54.29202
- Title: Developing Compelling Safety Cases
- Title(参考訳): 競合する安全ケースの開発
- Authors: Richard Hawkins,
- Abstract要約: 本手法は, 安全事例の実践改善に資し, 現状の問題点に対処することを目的とする。
本手法は,安全事例がリスクに重点を置くことを保証するアプローチを構築するための,確立されたアプローチとベストプラクティスに基づいて構築される。
注入ポンプシステムの簡単な例は、新しい方法が実際にどのように適用されたかを説明するために用いられる。
- 参考スコア(独自算出の注目度): 1.5446818009325964
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper describes a method for creating compelling safety cases. The method seeks to help improve safety case practice in order to address the weaknesses identified in current practice, in particular confirmation bias, after-the-fact assurance and safety cases as a paperwork exercise. Rather than creating new notations and tools to address these issues, we contend that it is improvements in the safety case process that will make the most significant improvement to safety case practice. Our method builds upon established approaches and best practice to create an approach that will ensure safety cases are risk-focused, seek to identify ways in which the system may not be safe (rather than just assuming it is), drive safe design and operation of the system (influencing the system itself rather than just documenting what's there), are used to support decisions made throughout the life of the system, including system operation and change, and encourage developers and operators to think about and understand why their system is safe (and when it isn't). A simple example of an infusion pump system is used to illustrate how the new method is applied in practice.
- Abstract(参考訳): 本稿では,説得力のある安全ケースを作成する方法について述べる。
本手法は,特に確認バイアス,アフター・ザ・ファクト・アシュアランス,安全ケースの書類作成作業における弱点に対処するために,安全事例の実践を改善することを目的としている。
これらの問題に対処するための新しい表記法やツールを作成するのではなく、安全ケースのプロセスの改善が安全ケースの実践に最も大きな改善をもたらす、と我々は主張する。
我々の手法は、安全ケースがリスクに重点を置いていることを保証するための、確立されたアプローチとベストプラクティスに基づいて構築され、システムの安全な設計と運用を推進し(単に存在を文書化するのではなく、システム自体に影響を与える)、システム操作や変更を含むシステムの生涯にわたる決定を支援し、開発者やオペレータに対して、システムの安全性について考え、理解するよう促す(そうでない場合も)。
注入ポンプシステムの簡単な例は、新しい方法が実際にどのように適用されたかを説明するために用いられる。
関連論文リスト
- Advancing Embodied Agent Security: From Safety Benchmarks to Input Moderation [52.83870601473094]
エンボディード・エージェントは、複数のドメインにまたがって大きな潜在能力を示す。
既存の研究は主に、一般的な大言語モデルのセキュリティに重点を置いている。
本稿では, エンボディエージェントの保護を目的とした新しい入力モデレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T08:34:35Z) - Probabilistic Shielding for Safe Reinforcement Learning [51.35559820893218]
現実のシナリオでは、強化学習(RL)エージェントはトレーニング時間を含む安全な振る舞いをしなければならない。
我々は,Safe RLの厳密な保証を享受する,スケーラブルな新しい手法を提案する。
当社のアプローチは、トレーニングやテスト時にエージェントが安全であることを保証する厳格な公式な安全保証を提供する。
論文 参考訳(メタデータ) (2025-03-09T17:54:33Z) - Vulnerability Mitigation for Safety-Aligned Language Models via Debiasing [12.986006070964772]
安全性アライメントは、現実世界のAIアプリケーションにとって重要な研究トピックである。
本研究はまず,モデルの有用性を犠牲にすることなく,このような脆弱性を除去することの難しさを明らかにした。
本手法は,安全性を維持しつつモデルの有用性を高め,トレードオフを改善できる。
論文 参考訳(メタデータ) (2025-02-04T09:31:54Z) - Dynamic safety cases for frontier AI [0.7538606213726908]
本稿では, 安全ケースの初期作成と, その体系的, 半自動改定の両立を支援するための動的安全事例管理システム(DSCMS)を提案する。
攻撃的サイバー能力のための安全ケーステンプレート上でこのアプローチを実証し、安全クリティカルな意思決定のためのガバナンス構造に統合する方法を提案する。
論文 参考訳(メタデータ) (2024-12-23T14:43:41Z) - Safety through Permissibility: Shield Construction for Fast and Safe Reinforcement Learning [57.84059344739159]
シールドディング」は、強化学習(RL)の安全性を強制する一般的な手法である
安全と遮蔽構造に対処する新しい許容性に基づく枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-29T18:00:21Z) - Towards Comprehensive Post Safety Alignment of Large Language Models via Safety Patching [74.62818936088065]
textscSafePatchingは包括的なPSAのための新しいフレームワークである。
textscSafePatchingはベースラインメソッドよりも包括的なPSAを実現する。
textscSafePatchingは、連続的なPSAシナリオにおいて、その優位性を示している。
論文 参考訳(メタデータ) (2024-05-22T16:51:07Z) - ACCESS: Assurance Case Centric Engineering of Safety-critical Systems [9.388301205192082]
保証ケースは、安全性やセキュリティなどの重要なシステム特性について、コミュニケーションし、信頼性を評価するために使用されます。
近年,システム保証活動の効率化と品質向上のために,モデルに基づくシステム保証アプローチが普及している。
モデルに基づくシステム保証ケースが異種工学的アーティファクトにどのように辿り着くかを示す。
論文 参考訳(メタデータ) (2024-03-22T14:29:50Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Building a Credible Case for Safety: Waymo's Approach for the
Determination of Absence of Unreasonable Risk [2.2386635730984117]
完全自律運転の安全ケースは、企業がAVシステムが安全であると判断する方法を説明する公式な方法である。
システムの説明、開発に使用する方法論、検証に使用するメトリクス、検証テストの実際の結果などが含まれる。
本稿では,システムの展開準備の仕方に関する基本的な考え方を提供することによって,このようなアライメントの実現を支援する。
論文 参考訳(メタデータ) (2023-06-02T21:05:39Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - A Survey of Algorithms for Black-Box Safety Validation of Cyber-Physical
Systems [30.638615396429536]
安全クリティカルな人工知能の普及により、この研究は、CPSの最先端の安全検証技術の調査を提供する。
本稿では,最適化,経路計画,強化学習,重要サンプリングの分野におけるアルゴリズムについて論じる。
自動運転車や航空機衝突回避システムなど、安全クリティカルな応用の概要を概説する。
論文 参考訳(メタデータ) (2020-05-06T17:31:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。