論文の概要: Assessing a Safety Case: Bottom-up Guidance for Claims and Evidence Evaluation
- arxiv url: http://arxiv.org/abs/2506.09929v1
- Date: Wed, 11 Jun 2025 16:52:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:03.137953
- Title: Assessing a Safety Case: Bottom-up Guidance for Claims and Evidence Evaluation
- Title(参考訳): 安全事例の評価: クレームとエビデンス評価のためのボトムアップガイダンス
- Authors: Scott Schnelle, Francesca Favaro, Laura Fraade-Blanar, David Wichner, Holland Broce, Justin Miranda,
- Abstract要約: 本稿では,その主張と証拠によって安全事例がいかに支持されているかを評価するためのアプローチを,全体事例の信頼性を確立するためのアプローチとして検討する。
本論文は,技術監査の実施状況に基づくものであるが,特に安全事例の信頼性を判断する上での課題に対処するものである。
- 参考スコア(独自算出の注目度): 1.3400663035092726
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As Automated Driving Systems (ADS) technology advances, ensuring safety and public trust requires robust assurance frameworks, with safety cases emerging as a critical tool toward such a goal. This paper explores an approach to assess how a safety case is supported by its claims and evidence, toward establishing credibility for the overall case. Starting from a description of the building blocks of a safety case (claims, evidence, and optional format-dependent entries), this paper delves into the assessment of support of each claim through the provided evidence. Two domains of assessment are outlined for each claim: procedural support (formalizing process specification) and implementation support (demonstrating process application). Additionally, an assessment of evidence status is also undertaken, independently from the claims support. Scoring strategies and evaluation guidelines are provided, including detailed scoring tables for claim support and evidence status assessment. The paper further discusses governance, continual improvement, and timing considerations for safety case assessments. Reporting of results and findings is contextualized within its primary use for internal decision-making on continual improvement efforts. The presented approach builds on state of the art auditing practices, but specifically tackles the question of judging the credibility of a safety case. While not conclusive on its own, it provides a starting point toward a comprehensive "Case Credibility Assessment" (CCA), starting from the evaluation of the support for each claim (individually and in aggregate), as well as every piece of evidence provided. By delving into the technical intricacies of ADS safety cases, this work contributes to the ongoing discourse on safety assurance and aims to facilitate the responsible integration of ADS technology into society.
- Abstract(参考訳): 自動運転システム(ADS)技術が進歩するにつれて、安全と公的な信頼を確保するには、堅牢な保証フレームワークが必要である。
本稿では,その主張と証拠によって安全事例がいかに支持されているかを評価するためのアプローチを,全体事例の信頼性を確立するためのアプローチとして検討する。
本論文は,安全事例のビルディングブロック(請求書,証拠,オプション形式に依存した項目)の説明から,提案された証拠を通じて,各クレームの支持評価について考察する。
手続き的サポート(形式化プロセス仕様)と実装サポート(実証プロセスアプリケーション)である。
さらに、クレームのサポートとは独立して、証拠のステータスの評価も実施されている。
クレーム支援のための詳細な評価表やエビデンスステータス評価を含む、スコーリング戦略と評価ガイドラインが提供される。
さらに、安全事例評価のためのガバナンス、継続的改善、タイミング検討についても論じる。
結果と結果の報告は、継続的改善努力における内的意思決定の一次的使用においてコンテキスト化される。
提案したアプローチは、最先端の監査プラクティスに基づいていますが、特に安全ケースの信頼性を判断する問題に取り組みます。
それ自体は決定的ではないが、各クレーム(個人的および集合的)に対する支持の評価から始まり、提供された証拠のすべてから、包括的「Case Credibility Assessment(CCA)」への出発点を提供する。
ADSの安全事例の技術的複雑さを掘り下げることで、この研究は安全保証に関する継続的な議論に寄与し、ADS技術の社会への責任ある統合を促進することを目的としている。
関連論文リスト
- A Critical Evaluation of Defenses against Prompt Injection Attacks [95.81023801370073]
大型言語モデル (LLM) はインジェクション攻撃に弱い。
いくつかの防衛策が提案され、しばしばこれらの攻撃をうまく緩和すると主張した。
既存の研究は、これらの防衛を評価するための原則的なアプローチを欠いていると論じる。
論文 参考訳(メタデータ) (2025-05-23T19:39:56Z) - Doing Audits Right? The Role of Sampling and Legal Content Analysis in Systemic Risk Assessments and Independent Audits in the Digital Services Act [0.0]
欧州連合のデジタルサービス法(DSA)では、オンラインプラットフォームが内部および外部監査を受ける必要がある。
本稿では,システムリスクを監査するための質的,定量的な方法の長所と短所について検討する。
我々は、コンテンツサンプリングと法的および実証的な分析を組み合わせることで、リスク特異的監査のための実行可能な方法を提供すると論じている。
論文 参考訳(メタデータ) (2025-05-06T15:02:54Z) - Advancing Embodied Agent Security: From Safety Benchmarks to Input Moderation [52.83870601473094]
エンボディード・エージェントは、複数のドメインにまたがって大きな潜在能力を示す。
既存の研究は主に、一般的な大言語モデルのセキュリティに重点を置いている。
本稿では, エンボディエージェントの保護を目的とした新しい入力モデレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T08:34:35Z) - Identifying Aspects in Peer Reviews [61.374437855024844]
我々は、ピアレビューのコーパスからアスペクトを抽出するデータ駆動スキーマを開発した。
我々は、アスペクトを付加したピアレビューのデータセットを導入し、コミュニティレベルのレビュー分析にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2025-04-09T14:14:42Z) - Securing External Deeper-than-black-box GPAI Evaluations [49.1574468325115]
本稿では,汎用AI(GPAI)モデルの安全かつ効果的な外部評価を行う上での課題と可能性について検討する。
サイズ、能力、到達度、付随するリスクの指数的な増加により、説明責任、安全性、および公的な信頼を保証するには、従来のブラックボックスメソッドを超えるフレームワークが必要である。
論文 参考訳(メタデータ) (2025-03-10T16:13:45Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - Automating Semantic Analysis of System Assurance Cases using Goal-directed ASP [1.2189422792863451]
本稿では, セマンティックルールに基づく分析機能を備えた Assurance 2.0 の拡張手法を提案する。
本稿では, 論理的整合性, 妥当性, 不整合性など, 保証事例のユニークな意味的側面について考察する。
論文 参考訳(メタデータ) (2024-08-21T15:22:43Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - Interpreting Safety Outcomes: Waymo's Performance Evaluation in the
Context of a Broader Determination of Safety Readiness [0.0]
本稿では,観測結果と他の推定手法を補完する安全性判定への多角的アプローチの必要性を強調した。
ADSのクラッシュデータと人間由来のベースラインの比較における「クレディビリティ・パラドックス」の提示、インユースモニタリングによる継続的信頼成長の認識、イベントレベルの適切な推論による総合統計分析を補完する必要性、などが議論の焦点となっている。
論文 参考訳(メタデータ) (2023-06-23T14:26:40Z) - Building a Credible Case for Safety: Waymo's Approach for the
Determination of Absence of Unreasonable Risk [2.2386635730984117]
完全自律運転の安全ケースは、企業がAVシステムが安全であると判断する方法を説明する公式な方法である。
システムの説明、開発に使用する方法論、検証に使用するメトリクス、検証テストの実際の結果などが含まれる。
本稿では,システムの展開準備の仕方に関する基本的な考え方を提供することによって,このようなアライメントの実現を支援する。
論文 参考訳(メタデータ) (2023-06-02T21:05:39Z) - A causal model of safety assurance for machine learning [0.45687771576879593]
本稿では,MLベースのアプリケーションに有効な安全保証ケースを構築するための,安全性の因果モデルに基づくフレームワークを提案する。
本論文は,安全事例証拠の4つのカテゴリと,これらの証拠を効果的に組み合わせた構造化解析手法を定義する。
論文 参考訳(メタデータ) (2022-01-14T13:54:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。