論文の概要: I came, I saw, I certified: some perspectives on the safety assurance of
cyber-physical systems
- arxiv url: http://arxiv.org/abs/2401.16633v1
- Date: Tue, 30 Jan 2024 00:06:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 16:56:07.334476
- Title: I came, I saw, I certified: some perspectives on the safety assurance of
cyber-physical systems
- Title(参考訳): サイバー物理システムの安全性の保証について、いくつかの視点から見てきた。
- Authors: Mithila Sivakumar, Alvine B. Belle, Kimya Khakzad Shahandashti,
Oluwafemi Odu, Hadi Hemmati, Segla Kpodjedo, Song Wang, Opeyemi O. Adesina
- Abstract要約: サイバー物理システムの実行が失敗すると、生命の喪失、重傷、大規模な環境被害、資産破壊、そして大きな経済損失が生じる。
しばしば、規制機関がそのような制度を認定することを正当化し許すために、説得力のある保証ケースを開発することが義務付けられている。
我々は、保証イネーブラーのような課題を探求し、それらに取り組むための潜在的な方向性を概説する。
- 参考スコア(独自算出の注目度): 5.9395940943056384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The execution failure of cyber-physical systems (e.g., autonomous driving
systems, unmanned aerial systems, and robotic systems) could result in the loss
of life, severe injuries, large-scale environmental damage, property
destruction, and major economic loss. Hence, such systems usually require a
strong justification that they will effectively support critical requirements
(e.g., safety, security, and reliability) for which they were designed. Thus,
it is often mandatory to develop compelling assurance cases to support that
justification and allow regulatory bodies to certify such systems. In such
contexts, detecting assurance deficits, relying on patterns to improve the
structure of assurance cases, improving existing assurance case notations, and
(semi-)automating the generation of assurance cases are key to develop
compelling assurance cases and foster consumer acceptance. We therefore explore
challenges related to such assurance enablers and outline some potential
directions that could be explored to tackle them.
- Abstract(参考訳): サイバー物理システム(例えば、自律運転システム、無人航空機システム、ロボットシステム)の実行失敗は、生命の喪失、重傷、大規模な環境損傷、資産破壊、そして大きな経済的損失をもたらす可能性がある。
したがって、このようなシステムは通常、設計された重要な要件(例えば、安全性、セキュリティ、信頼性)を効果的にサポートするという強い正当性を必要とする。
したがって、規制機関がそのような制度を認証することを許すために、しばしば説得力のある保証ケースを開発することが義務付けられている。
このような文脈では、保証欠陥の検出、保証ケースの構造改善のパターンへの依存、既存の保証ケース表記の改善、および(半)保証ケースの生成の自動化が、魅力的な保証ケースの開発と消費者の受け入れを促進する鍵となる。
そこで我々は,このような保証イネーブラに関する課題を考察し,それに取り組むために検討できる可能性について概説する。
関連論文リスト
- Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [67.38554763406098]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、安全を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Dynamic Risk Management in Cyber Physical Systems [1.932229781942544]
本稿では,協調型自動CPSの安全性保証課題について述べる。
これは、動的リスク管理に関する私たちのビジョンの概要を提供し、すでに存在するビルディングブロックについて説明する。
論文 参考訳(メタデータ) (2024-01-24T15:50:32Z) - The Last Decade in Review: Tracing the Evolution of Safety Assurance
Cases through a Comprehensive Bibliometric Analysis [7.431812376079826]
安全保証は、自動車、航空宇宙、原子力など、様々な分野において最重要事項である。
安全保証ケースを使用することで、生成されたシステム機能の正しさを検証することができ、システム障害を防止することができる。
論文 参考訳(メタデータ) (2023-11-13T17:34:23Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Sustainable Adaptive Security [11.574868434725117]
本稿では,新たに発見された脅威を軽減し,適応型セキュリティシステムの拡張による永続的保護を反映したサステナブル・アダプティブ・セキュリティ(SAS)の概念を提案する。
私たちはスマートホームの例を使って、持続可能な適応セキュリティを満たすシステムのMAPE(Monitor, Analysis, Planning, Execution)ループのアクティビティをどのように構築できるかを示します。
論文 参考訳(メタデータ) (2023-06-05T08:48:36Z) - Liability regimes in the age of AI: a use-case driven analysis of the
burden of proof [1.7510020208193926]
人工知能(AI)を利用した新しいテクノロジーは、私たちの社会をより良く、破壊的に変革する可能性を秘めている。
しかし、安全と基本的権利の両方に潜在的なリスクをもたらす、これらの方法論の固有の特性に対する懸念が高まっている。
本稿では,これらの難易度を示す3つのケーススタディと,それらに到達するための方法論について述べる。
論文 参考訳(メタデータ) (2022-11-03T13:55:36Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - The Opportunity to Regulate Cybersecurity in the EU (and the World):
Recommendations for the Cybersecurity Resilience Act [1.2691047660244335]
ほとんどの状況で安全はサイバーセキュリティになりつつある。
これは、欧州連合で提案され、合意された時に、サイバーセキュリティ回復法に反映されるべきである。
これは、長い間サイバーセキュリティ研究コミュニティが求めてきたこと、そしてソフトではなく明確な厳格な法的ルールを構成するものに基づいている。
論文 参考訳(メタデータ) (2022-05-26T07:20:44Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。