論文の概要: ACCESS: Assurance Case Centric Engineering of Safety-critical Systems
- arxiv url: http://arxiv.org/abs/2403.15236v1
- Date: Fri, 22 Mar 2024 14:29:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 17:09:34.206136
- Title: ACCESS: Assurance Case Centric Engineering of Safety-critical Systems
- Title(参考訳): ACCESS:安全クリティカルシステムの保証事例中心技術
- Authors: Ran Wei, Simon Foster, Haitao Mei, Fang Yan, Ruizhe Yang, Ibrahim Habli, Colin O'Halloran, Nick Tudor, Tim Kelly,
- Abstract要約: 保証ケースは、安全性やセキュリティなどの重要なシステム特性について、コミュニケーションし、信頼性を評価するために使用されます。
近年,システム保証活動の効率化と品質向上のために,モデルに基づくシステム保証アプローチが普及している。
モデルに基づくシステム保証ケースが異種工学的アーティファクトにどのように辿り着くかを示す。
- 参考スコア(独自算出の注目度): 9.45689141576032
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Assurance cases are used to communicate and assess confidence in critical system properties such as safety and security. Historically, assurance cases have been manually created documents, which are evaluated by system stakeholders through lengthy and complicated processes. In recent years, model-based system assurance approaches have gained popularity to improve the efficiency and quality of system assurance activities. This becomes increasingly important, as systems becomes more complex, it is a challenge to manage their development life-cycles, including coordination of development, verification and validation activities, and change impact analysis in inter-connected system assurance artifacts. Moreover, there is a need for assurance cases that support evolution during the operational life of the system, to enable continuous assurance in the face of an uncertain environment, as Robotics and Autonomous Systems (RAS) are adopted into society. In this paper, we contribute ACCESS - Assurance Case Centric Engineering of Safety-critical Systems, an engineering methodology, together with its tool support, for the development of safety critical systems around evolving model-based assurance cases. We show how model-based system assurance cases can trace to heterogeneous engineering artifacts (e.g. system architectural models, system safety analysis, system behaviour models, etc.), and how formal methods can be integrated during the development process. We demonstrate how assurance cases can be automatically evaluated both at development and runtime. We apply our approach to a case study based on an Autonomous Underwater Vehicle (AUV).
- Abstract(参考訳): 保証ケースは、安全性やセキュリティなどの重要なシステム特性について、コミュニケーションし、信頼性を評価するために使用されます。
歴史的に、保証ケースは手作業で作成され、長く複雑なプロセスを通じてシステムステークホルダーによって評価される。
近年,システム保証活動の効率化と品質向上のために,モデルに基づくシステム保証アプローチが普及している。
システムが複雑化するにつれて、開発・検証・検証活動の調整や、相互接続されたシステム保証アーティファクトにおける影響分析の変更など、開発ライフサイクルの管理が課題となる。
さらに、ロボット・自律システム(RAS)が社会に採用されているため、システムの運用期間中の進化を支援するための保証ケースも必要である。
本稿では,安全クリティカルシステムのための技術方法論であるACCESS - Assurance Case Centric Engineering of Safety- critical Systemsを,そのツールサポートとともに,モデルベースの保証ケースの進化に伴う安全クリティカルシステムの開発に貢献する。
モデルベースのシステム保証ケースが異質なエンジニアリングアーティファクト(例えば、システムアーキテクチャモデル、システム安全性分析、システム行動モデルなど)にどのように辿り着くか、そして開発プロセス中に形式的なメソッドをどのように統合するかを示す。
開発と実行の両方で保証ケースを自動的に評価する方法を実証する。
本稿では,AUV(Autonomous Underwater Vehicle)に基づくケーススタディに適用する。
関連論文リスト
- Automating Semantic Analysis of System Assurance Cases using Goal-directed ASP [1.2189422792863451]
本稿では, セマンティックルールに基づく分析機能を備えた Assurance 2.0 の拡張手法を提案する。
本稿では, 論理的整合性, 妥当性, 不整合性など, 保証事例のユニークな意味的側面について考察する。
論文 参考訳(メタデータ) (2024-08-21T15:22:43Z) - EAIRiskBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [47.69642609574771]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
EAIRiskBenchは、EAIシナリオにおける自動物理的リスクアセスメントのための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - A PRISMA-Driven Bibliometric Analysis of the Scientific Literature on Assurance Case Patterns [7.930875992631788]
保証ケースはシステム障害を防ぐために使用できる。
それらは構造化された議論であり、様々な安全クリティカルなシステムの要求を議論し、中継することができる。
論文 参考訳(メタデータ) (2024-07-06T05:00:49Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Towards Continuous Assurance Case Creation for ADS with the Evidential
Tool Bus [0.4194295877935868]
保証ケースは、安全クリティカルなシステムの認証に不可欠な要素となっている。
本稿では,ツール統合フレームワーク Evidential Tool Bus (ETB) を利用した保証ケースの構築と継続的メンテナンスの予備的経験について報告する。
論文 参考訳(メタデータ) (2024-03-04T10:32:48Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Joint Differentiable Optimization and Verification for Certified
Reinforcement Learning [91.93635157885055]
安全クリティカル制御システムのためのモデルベース強化学習では,システム特性を正式に認定することが重要である。
本稿では,強化学習と形式検証を共同で行う枠組みを提案する。
論文 参考訳(メタデータ) (2022-01-28T16:53:56Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Quantifying Assurance in Learning-enabled Systems [3.0938904602244355]
機械学習コンポーネントを組み込んだシステムの依存性保証は、安全クリティカルなアプリケーションで使用する上で重要なステップである。
本稿では, LESが信頼できるという保証の定量的概念を, 保証ケースのコアコンポーネントとして開発する。
本稿では,現実の自律型航空システムへの適用による保証対策の有用性について述べる。
論文 参考訳(メタデータ) (2020-06-18T08:11:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。