論文の概要: A Scalable Framework for Safety Assurance of Self-Driving Vehicles based on Assurance 2.0
- arxiv url: http://arxiv.org/abs/2510.00092v1
- Date: Tue, 30 Sep 2025 16:13:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.178516
- Title: A Scalable Framework for Safety Assurance of Self-Driving Vehicles based on Assurance 2.0
- Title(参考訳): A Scalable Framework for Safety Assurance of Self-Driving Vehicles Based on Assurance 2.0 (特集 自動車の安全性保証)
- Authors: Shufeng Chen, Mariat James Elizebeth, Robab Aghazadeh Chakherlou, Xingyu Zhao, Eric Barbier, Siddartha Khastgir, Paul Jennings,
- Abstract要約: Assurance 2.0は、ますます複雑で適応的で自律的なシステムの保証問題に対処するために開発されたモダンなフレームワークである。
厳密さ、透明性、適応性を高めるために、再利用可能な保証理論と明示的な対抗策(デファター)を導入している。
限界は、信頼度測定、疑念の残る管理、自動化支援、そして、敗者および確認バイアスの実践的な処理に持続する。
- 参考スコア(独自算出の注目度): 3.2877342344625777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Assurance 2.0 is a modern framework developed to address the assurance challenges of increasingly complex, adaptive, and autonomous systems. Building on the traditional Claims-Argument-Evidence (CAE) model, it introduces reusable assurance theories and explicit counterarguments (defeaters) to enhance rigor, transparency, and adaptability. It supports continuous, incremental assurance, enabling innovation without compromising safety. However, limitations persist in confidence measurement, residual doubt management, automation support, and the practical handling of defeaters and confirmation bias. This paper presents \textcolor{black}{a set of decomposition frameworks to identify a complete set of safety arguments and measure their corresponding evidence.} Grounded in the Assurance 2.0 paradigm, the framework is instantiated through a structured template and employs a three-tiered decomposition strategy. \textcolor{black}{A case study regarding the application of the decomposition framework in the end-to-end (E2E) AI-based Self-Driving Vehicle (SDV) development is also presented in this paper.} At the top level, the SDV development is divided into three critical phases: Requirements Engineering (RE), Verification and Validation (VnV), and Post-Deployment (PD). Each phase is further decomposed according to its Product Development Lifecycle (PDLC). To ensure comprehensive coverage, each PDLC is analyzed using an adapted 5M1E model (Man, Machine, Method, Material, Measurement, and Environment). Originally developed for manufacturing quality control, the 5M1E model is reinterpreted and contextually mapped to the assurance domain. This enables a multi-dimensional decomposition that supports fine-grained traceability of safety claims, evidence, and potential defeaters.
- Abstract(参考訳): Assurance 2.0は、ますます複雑で適応的で自律的なシステムの保証問題に対処するために開発されたモダンなフレームワークである。
従来のCrims-Argument-Evidence(CAE)モデルに基づいており、厳密さ、透明性、適応性を高めるために、再利用可能な保証理論と明示的な反論(デファター)を導入している。
継続的かつ漸進的な保証をサポートし、安全性を損なうことなくイノベーションを可能にする。
しかし、信頼度測定、残留疑念管理、自動化支援、敗北者の実践的扱い、確認バイアスには限界が持続する。
本稿では,安全性の議論の完全な集合を同定し,それらに対応する証拠を測定するために,<textcolor{black}{a>の分解フレームワークを提案する。
Assurance 2.0パラダイムに基づいて、フレームワークは構造化テンプレートを通じてインスタンス化され、3段階の分解戦略を採用している。
本稿では,E2E(End-to-end)AIベースの自走車(SDV)開発における分解フレームワークの適用に関するケーススタディについて述べる。
SDV開発は,要件工学(RE),検証検証検証(VnV),デプロイ後(PD)の3つの重要な段階に分けられる。
各フェーズは、製品開発ライフサイクル(PDLC)に従ってさらに分解される。
包括的カバレッジを確保するため、各PDLCを適応した5M1Eモデル(人、機械、方法、材料、測定、環境)を用いて分析する。
もともと製造品質管理のために開発された5M1Eモデルは、アシュアランス領域に再解釈され、文脈的にマッピングされる。
これにより、安全クレーム、エビデンス、潜在的敗北者のきめ細かいトレーサビリティをサポートする多次元分解が可能となる。
関連論文リスト
- Towards Continuous Assurance with Formal Verification and Assurance Cases [0.5483130283061118]
我々は、トレース可能なモデル駆動ワークフロー内に設計時、実行時、進化時保証を統合する統合された継続的保証フレームワークを提案する。
我々は,核検査ロボットのシナリオに対するアプローチを実証し,三元AI原則との整合性について議論する。
論文 参考訳(メタデータ) (2025-11-17T18:42:38Z) - SafeGRPO: Self-Rewarded Multimodal Safety Alignment via Rule-Governed Policy Optimization [79.14563283347773]
マルチモーダルな大言語モデル (MLLM) は印象的な推論と命令追従能力を示した。
クロスモーダル結合は、個々の入力が良性である場合でも、安全でないセマンティクスを生成する。
自己回帰型マルチモーダル安全アライメントフレームワークであるSafeGRPOを提案する。
論文 参考訳(メタデータ) (2025-11-17T05:09:49Z) - AI Bill of Materials and Beyond: Systematizing Security Assurance through the AI Risk Scanning (AIRS) Framework [31.261980405052938]
人工知能(AI)システムの保証は、ソフトウェアサプライチェーンセキュリティ、敵機械学習、ガバナンスドキュメントに分散している。
本稿では,AI保証の運用を目的とした脅威モデルに基づくエビデンス発生フレームワークであるAI Risk Scanning(AIRS)フレームワークを紹介する。
論文 参考訳(メタデータ) (2025-11-16T16:10:38Z) - Making LLMs Reliable When It Matters Most: A Five-Layer Architecture for High-Stakes Decisions [51.56484100374058]
現在の大規模言語モデル(LLM)は、実行前にアウトプットをチェックできるが、不確実な結果を伴う高い戦略決定には信頼性が低い検証可能な領域で優れている。
このギャップは、人間と人工知能(AI)システムの相互認知バイアスによって引き起こされ、そのセクターにおける評価と投資の持続可能性の保証を脅かす。
本報告では、7つのフロンティアグレードLDMと3つの市場向けベンチャーヴィグネットの時間的圧力下での系統的質的評価から生まれた枠組みについて述べる。
論文 参考訳(メタデータ) (2025-11-10T22:24:21Z) - Automating Steering for Safe Multimodal Large Language Models [58.36932318051907]
基礎モデルの微調整を必要とせず,モジュール型かつ適応型推論時間介入技術であるAutoSteerを導入する。
AutoSteerは,(1)モデル内部層間の最も安全性に関連のある識別を自動的に行う新しい安全意識スコア(SAS),(2)中間表現から有害な出力の可能性を推定するために訓練された適応安全プローバ,(3)安全性のリスクが検出された場合に生成を選択的に介入する軽量な拒絶ヘッドの3つのコアコンポーネントを組み込んだ。
論文 参考訳(メタデータ) (2025-07-17T16:04:55Z) - Justified Evidence Collection for Argument-based AI Fairness Assurance [7.65321625950609]
本稿では,2段階の議論に基づく保証に対する動的アプローチを運用するために,ソフトウェアツールがサポートするシステムエンジニアリング駆動フレームワークを提案する。
フレームワークの有効性は、フェアネスに関連する議論を支援することに焦点を当てた、金融における実証的なケーススタディによって実証される。
論文 参考訳(メタデータ) (2025-05-12T21:05:33Z) - T2VShield: Model-Agnostic Jailbreak Defense for Text-to-Video Models [88.63040835652902]
テキストからビデオモデルへの攻撃はジェイルブレイク攻撃に弱いため、特別な方法で安全メカニズムをバイパスし、有害または安全でないコンテンツの生成につながる。
我々は、ジェイルブレイクの脅威からテキストからビデオモデルを守るために設計された包括的でモデルに依存しない防衛フレームワークであるT2VShieldを提案する。
本手法は,既存の防御の限界を特定するために,入力,モデル,出力の段階を体系的に解析する。
論文 参考訳(メタデータ) (2025-04-22T01:18:42Z) - On the Trustworthiness of Generative Foundation Models: Guideline, Assessment, and Perspective [377.2483044466149]
Generative Foundation Models (GenFMs) がトランスフォーメーションツールとして登場した。
彼らの広く採用されていることは、次元の信頼に関する重要な懸念を提起する。
本稿では,3つの主要なコントリビューションを通じて,これらの課題に対処するための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2025-02-20T06:20:36Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - DRIVE: Dependable Robust Interpretable Visionary Ensemble Framework in Autonomous Driving [1.4104119587524289]
自動運転の最近の進歩は、エンド・ツー・エンドの学習パラダイムへのパラダイムシフトを経験している。
これらのモデルは、しばしば解釈可能性を犠牲にし、信頼、安全、規制の遵守に重大な課題を提起する。
我々は、エンドツーエンドの教師なし運転モデルにおける説明の信頼性と安定性を改善するために設計された総合的なフレームワークDRIVEを紹介する。
論文 参考訳(メタデータ) (2024-09-16T14:40:47Z) - Automating Semantic Analysis of System Assurance Cases using Goal-directed ASP [1.2189422792863451]
本稿では, セマンティックルールに基づく分析機能を備えた Assurance 2.0 の拡張手法を提案する。
本稿では, 論理的整合性, 妥当性, 不整合性など, 保証事例のユニークな意味的側面について考察する。
論文 参考訳(メタデータ) (2024-08-21T15:22:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。