論文の概要: Sustainable Adaptive Security
- arxiv url: http://arxiv.org/abs/2306.04481v1
- Date: Mon, 5 Jun 2023 08:48:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 04:15:49.129035
- Title: Sustainable Adaptive Security
- Title(参考訳): 持続可能な適応型セキュリティ
- Authors: Liliana Pasquale, Kushal Ramkumar, Wanling Cai, John McCarthy, Gavin
Doherty, and Bashar Nuseibeh
- Abstract要約: 本稿では,新たに発見された脅威を軽減し,適応型セキュリティシステムの拡張による永続的保護を反映したサステナブル・アダプティブ・セキュリティ(SAS)の概念を提案する。
私たちはスマートホームの例を使って、持続可能な適応セキュリティを満たすシステムのMAPE(Monitor, Analysis, Planning, Execution)ループのアクティビティをどのように構築できるかを示します。
- 参考スコア(独自算出の注目度): 11.574868434725117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With software systems permeating our lives, we are entitled to expect that
such systems are secure by design, and that such security endures throughout
the use of these systems and their subsequent evolution. Although adaptive
security systems have been proposed to continuously protect assets from harm,
they can only mitigate threats arising from changes foreseen at design time. In
this paper, we propose the notion of Sustainable Adaptive Security (SAS) which
reflects such enduring protection by augmenting adaptive security systems with
the capability of mitigating newly discovered threats. To achieve this
objective, a SAS system should be designed by combining automation (e.g., to
discover and mitigate security threats) and human intervention (e.g., to
resolve uncertainties during threat discovery and mitigation). In this paper,
we use a smart home example to showcase how we can engineer the activities of
the MAPE (Monitor, Analysis, Planning, and Execution) loop of systems
satisfying sustainable adaptive security. We suggest that using anomaly
detection together with abductive reasoning can help discover new threats and
guide the evolution of security requirements and controls. We also exemplify
situations when humans can be involved in the execution of the activities of
the MAPE loop and discuss the requirements to engineer human interventions.
- Abstract(参考訳): 私たちの生活に浸透するソフトウェアシステムでは、そのようなシステムは設計によって安全であり、これらのシステムの使用とその後の進化を通じて、そのようなセキュリティが耐えられることを期待する権利があります。
資産を危害から継続的に保護するために、適応型セキュリティシステムが提案されているが、設計時の変更による脅威を軽減できるだけである。
本稿では,新たに発見された脅威を緩和する能力を備えた適応型セキュリティシステムを拡張することにより,持続的保護を反映した持続的適応型セキュリティ(sas)の概念を提案する。
この目的を達成するために、SASシステムは、自動化(例えば、セキュリティ脅威の発見と緩和)と人間の介入(例えば、脅威発見と緩和の間の不確実性を解決する)を組み合わせることで設計されるべきである。
本稿では、スマートホームの例を用いて、持続可能な適応セキュリティを満たすシステムのMAPEループ(監視、分析、計画、実行)のアクティビティをいかに構築できるかを示す。
我々は,異常検出とアブダプティブ推論を併用することで,新たな脅威の発見と,セキュリティ要件とコントロールの進化を導くことができることを示唆する。
また,MAPEループの動作の実行に人間が関与できる状況を実証し,人的介入の要求について議論する。
関連論文リスト
- AGrail: A Lifelong Agent Guardrail with Effective and Adaptive Safety Detection [47.83354878065321]
我々は,エージェントの安全性を高めるため,生涯のガードレールであるAGrailを提案する。
AGrailは適応型安全チェック生成、効果的な安全チェック最適化、ツールの互換性と柔軟性を備えている。
論文 参考訳(メタデータ) (2025-02-17T05:12:33Z) - Dynamic safety cases for frontier AI [0.7538606213726908]
本稿では, 安全ケースの初期作成と, その体系的, 半自動改定の両立を支援するための動的安全事例管理システム(DSCMS)を提案する。
攻撃的サイバー能力のための安全ケーステンプレート上でこのアプローチを実証し、安全クリティカルな意思決定のためのガバナンス構造に統合する方法を提案する。
論文 参考訳(メタデータ) (2024-12-23T14:43:41Z) - ACTISM: Threat-informed Dynamic Security Modelling for Automotive Systems [7.3347982474177185]
ACTISM(Automotive Consequence-Driven and Threat-Informed Security Modelling)は、統合セキュリティモデリングフレームワークである。
これは、彼らのサイバーセキュリティ姿勢を動的に更新することで、自動車システムのレジリエンスを高める。
我々は、Tesla Electric Vehicleの車載インフォテインメントシステムの実例に適用することで、ACTISMの有効性を実証する。
本稿では,ACTISMの有用性と今後の方向性について,実践者のアンケート調査結果について報告する。
論文 参考訳(メタデータ) (2024-11-30T09:58:48Z) - Defining and Evaluating Physical Safety for Large Language Models [62.4971588282174]
大型言語モデル (LLM) は、ドローンのようなロボットシステムを制御するためにますます使われている。
現実世界のアプリケーションに物理的な脅威や害をもたらすリスクは、まだ解明されていない。
我々は,ドローンの物理的安全性リスクを,(1)目標脅威,(2)目標脅威,(3)インフラ攻撃,(4)規制違反の4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2024-11-04T17:41:25Z) - Automated Cybersecurity Compliance and Threat Response Using AI, Blockchain & Smart Contracts [0.36832029288386137]
人工知能(AI)、ブロックチェーン、スマートコントラクトを統合する新しいフレームワークを提案する。
本稿では,セキュリティポリシの実施を自動化し,手作業や潜在的なヒューマンエラーを減らすシステムを提案する。
論文 参考訳(メタデータ) (2024-09-12T20:38:14Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - The MESA Security Model 2.0: A Dynamic Framework for Mitigating Stealth Data Exfiltration [0.0]
ステルスデータ流出は、隠蔽侵入、拡張された検出不能、機密データの不正な拡散を特徴とする重要なサイバー脅威である。
以上の結果から,従来の防衛戦略はこれらの高度な脅威に対処するには不十分であることが判明した。
この複雑な風景をナビゲートする上で、潜在的な脅威を予測し、防衛を継続的に更新することが重要です。
論文 参考訳(メタデータ) (2024-05-17T16:14:45Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。