論文の概要: Assessing a Safety Case: Bottom-up Guidance for Claims and Evidence Evaluation
- arxiv url: http://arxiv.org/abs/2506.09929v1
- Date: Wed, 11 Jun 2025 16:52:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:03.137953
- Title: Assessing a Safety Case: Bottom-up Guidance for Claims and Evidence Evaluation
- Title(参考訳): 安全事例の評価: クレームとエビデンス評価のためのボトムアップガイダンス
- Authors: Scott Schnelle, Francesca Favaro, Laura Fraade-Blanar, David Wichner, Holland Broce, Justin Miranda,
- Abstract要約: 本稿では,その主張と証拠によって安全事例がいかに支持されているかを評価するためのアプローチを,全体事例の信頼性を確立するためのアプローチとして検討する。
本論文は,技術監査の実施状況に基づくものであるが,特に安全事例の信頼性を判断する上での課題に対処するものである。
- 参考スコア(独自算出の注目度): 1.3400663035092726
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As Automated Driving Systems (ADS) technology advances, ensuring safety and public trust requires robust assurance frameworks, with safety cases emerging as a critical tool toward such a goal. This paper explores an approach to assess how a safety case is supported by its claims and evidence, toward establishing credibility for the overall case. Starting from a description of the building blocks of a safety case (claims, evidence, and optional format-dependent entries), this paper delves into the assessment of support of each claim through the provided evidence. Two domains of assessment are outlined for each claim: procedural support (formalizing process specification) and implementation support (demonstrating process application). Additionally, an assessment of evidence status is also undertaken, independently from the claims support. Scoring strategies and evaluation guidelines are provided, including detailed scoring tables for claim support and evidence status assessment. The paper further discusses governance, continual improvement, and timing considerations for safety case assessments. Reporting of results and findings is contextualized within its primary use for internal decision-making on continual improvement efforts. The presented approach builds on state of the art auditing practices, but specifically tackles the question of judging the credibility of a safety case. While not conclusive on its own, it provides a starting point toward a comprehensive "Case Credibility Assessment" (CCA), starting from the evaluation of the support for each claim (individually and in aggregate), as well as every piece of evidence provided. By delving into the technical intricacies of ADS safety cases, this work contributes to the ongoing discourse on safety assurance and aims to facilitate the responsible integration of ADS technology into society.
- Abstract(参考訳): 自動運転システム(ADS)技術が進歩するにつれて、安全と公的な信頼を確保するには、堅牢な保証フレームワークが必要である。
本稿では,その主張と証拠によって安全事例がいかに支持されているかを評価するためのアプローチを,全体事例の信頼性を確立するためのアプローチとして検討する。
本論文は,安全事例のビルディングブロック(請求書,証拠,オプション形式に依存した項目)の説明から,提案された証拠を通じて,各クレームの支持評価について考察する。
手続き的サポート(形式化プロセス仕様)と実装サポート(実証プロセスアプリケーション)である。
さらに、クレームのサポートとは独立して、証拠のステータスの評価も実施されている。
クレーム支援のための詳細な評価表やエビデンスステータス評価を含む、スコーリング戦略と評価ガイドラインが提供される。
さらに、安全事例評価のためのガバナンス、継続的改善、タイミング検討についても論じる。
結果と結果の報告は、継続的改善努力における内的意思決定の一次的使用においてコンテキスト化される。
提案したアプローチは、最先端の監査プラクティスに基づいていますが、特に安全ケースの信頼性を判断する問題に取り組みます。
それ自体は決定的ではないが、各クレーム(個人的および集合的)に対する支持の評価から始まり、提供された証拠のすべてから、包括的「Case Credibility Assessment(CCA)」への出発点を提供する。
ADSの安全事例の技術的複雑さを掘り下げることで、この研究は安全保証に関する継続的な議論に寄与し、ADS技術の社会への責任ある統合を促進することを目的としている。
関連論文リスト
- A Critical Evaluation of Defenses against Prompt Injection Attacks [95.81023801370073]
大型言語モデル (LLM) はインジェクション攻撃に弱い。
いくつかの防衛策が提案され、しばしばこれらの攻撃をうまく緩和すると主張した。
既存の研究は、これらの防衛を評価するための原則的なアプローチを欠いていると論じる。
論文 参考訳(メタデータ) (2025-05-23T19:39:56Z) - Advancing Embodied Agent Security: From Safety Benchmarks to Input Moderation [52.83870601473094]
エンボディード・エージェントは、複数のドメインにまたがって大きな潜在能力を示す。
既存の研究は主に、一般的な大言語モデルのセキュリティに重点を置いている。
本稿では, エンボディエージェントの保護を目的とした新しい入力モデレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T08:34:35Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - Automating Semantic Analysis of System Assurance Cases using Goal-directed ASP [1.2189422792863451]
本稿では, セマンティックルールに基づく分析機能を備えた Assurance 2.0 の拡張手法を提案する。
本稿では, 論理的整合性, 妥当性, 不整合性など, 保証事例のユニークな意味的側面について考察する。
論文 参考訳(メタデータ) (2024-08-21T15:22:43Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。