論文の概要: I came, I saw, I certified: some perspectives on the safety assurance of
cyber-physical systems
- arxiv url: http://arxiv.org/abs/2401.16633v1
- Date: Tue, 30 Jan 2024 00:06:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 16:56:07.334476
- Title: I came, I saw, I certified: some perspectives on the safety assurance of
cyber-physical systems
- Title(参考訳): サイバー物理システムの安全性の保証について、いくつかの視点から見てきた。
- Authors: Mithila Sivakumar, Alvine B. Belle, Kimya Khakzad Shahandashti,
Oluwafemi Odu, Hadi Hemmati, Segla Kpodjedo, Song Wang, Opeyemi O. Adesina
- Abstract要約: サイバー物理システムの実行が失敗すると、生命の喪失、重傷、大規模な環境被害、資産破壊、そして大きな経済損失が生じる。
しばしば、規制機関がそのような制度を認定することを正当化し許すために、説得力のある保証ケースを開発することが義務付けられている。
我々は、保証イネーブラーのような課題を探求し、それらに取り組むための潜在的な方向性を概説する。
- 参考スコア(独自算出の注目度): 5.9395940943056384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The execution failure of cyber-physical systems (e.g., autonomous driving
systems, unmanned aerial systems, and robotic systems) could result in the loss
of life, severe injuries, large-scale environmental damage, property
destruction, and major economic loss. Hence, such systems usually require a
strong justification that they will effectively support critical requirements
(e.g., safety, security, and reliability) for which they were designed. Thus,
it is often mandatory to develop compelling assurance cases to support that
justification and allow regulatory bodies to certify such systems. In such
contexts, detecting assurance deficits, relying on patterns to improve the
structure of assurance cases, improving existing assurance case notations, and
(semi-)automating the generation of assurance cases are key to develop
compelling assurance cases and foster consumer acceptance. We therefore explore
challenges related to such assurance enablers and outline some potential
directions that could be explored to tackle them.
- Abstract(参考訳): サイバー物理システム(例えば、自律運転システム、無人航空機システム、ロボットシステム)の実行失敗は、生命の喪失、重傷、大規模な環境損傷、資産破壊、そして大きな経済的損失をもたらす可能性がある。
したがって、このようなシステムは通常、設計された重要な要件(例えば、安全性、セキュリティ、信頼性)を効果的にサポートするという強い正当性を必要とする。
したがって、規制機関がそのような制度を認証することを許すために、しばしば説得力のある保証ケースを開発することが義務付けられている。
このような文脈では、保証欠陥の検出、保証ケースの構造改善のパターンへの依存、既存の保証ケース表記の改善、および(半)保証ケースの生成の自動化が、魅力的な保証ケースの開発と消費者の受け入れを促進する鍵となる。
そこで我々は,このような保証イネーブラに関する課題を考察し,それに取り組むために検討できる可能性について概説する。
関連論文リスト
- Securing Legacy Communication Networks via Authenticated Cyclic Redundancy Integrity Check [98.34702864029796]
認証サイクル冗長性チェック(ACRIC)を提案する。
ACRICは、追加のハードウェアを必要とせずに後方互換性を保持し、プロトコルに依存しない。
ACRICは最小送信オーバーヘッド(1ms)で堅牢なセキュリティを提供する。
論文 参考訳(メタデータ) (2024-11-21T18:26:05Z) - Automating Semantic Analysis of System Assurance Cases using Goal-directed ASP [1.2189422792863451]
本稿では, セマンティックルールに基づく分析機能を備えた Assurance 2.0 の拡張手法を提案する。
本稿では, 論理的整合性, 妥当性, 不整合性など, 保証事例のユニークな意味的側面について考察する。
論文 参考訳(メタデータ) (2024-08-21T15:22:43Z) - A PRISMA-Driven Bibliometric Analysis of the Scientific Literature on Assurance Case Patterns [7.930875992631788]
保証ケースはシステム障害を防ぐために使用できる。
それらは構造化された議論であり、様々な安全クリティカルなシステムの要求を議論し、中継することができる。
論文 参考訳(メタデータ) (2024-07-06T05:00:49Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - ACCESS: Assurance Case Centric Engineering of Safety-critical Systems [9.388301205192082]
保証ケースは、安全性やセキュリティなどの重要なシステム特性について、コミュニケーションし、信頼性を評価するために使用されます。
近年,システム保証活動の効率化と品質向上のために,モデルに基づくシステム保証アプローチが普及している。
モデルに基づくシステム保証ケースが異種工学的アーティファクトにどのように辿り着くかを示す。
論文 参考訳(メタデータ) (2024-03-22T14:29:50Z) - Dynamic Risk Management in Cyber Physical Systems [1.7687476868741456]
本稿では,協調型自動CPSの安全性保証課題について述べる。
これは、動的リスク管理に関する私たちのビジョンの概要を提供し、すでに存在するビルディングブロックについて説明する。
論文 参考訳(メタデータ) (2024-01-24T15:50:32Z) - The Last Decade in Review: Tracing the Evolution of Safety Assurance
Cases through a Comprehensive Bibliometric Analysis [7.431812376079826]
安全保証は、自動車、航空宇宙、原子力など、様々な分野において最重要事項である。
安全保証ケースを使用することで、生成されたシステム機能の正しさを検証することができ、システム障害を防止することができる。
論文 参考訳(メタデータ) (2023-11-13T17:34:23Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。