論文の概要: Sustainable Adaptive Security
- arxiv url: http://arxiv.org/abs/2306.04481v1
- Date: Mon, 5 Jun 2023 08:48:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 04:15:49.129035
- Title: Sustainable Adaptive Security
- Title(参考訳): 持続可能な適応型セキュリティ
- Authors: Liliana Pasquale, Kushal Ramkumar, Wanling Cai, John McCarthy, Gavin
Doherty, and Bashar Nuseibeh
- Abstract要約: 本稿では,新たに発見された脅威を軽減し,適応型セキュリティシステムの拡張による永続的保護を反映したサステナブル・アダプティブ・セキュリティ(SAS)の概念を提案する。
私たちはスマートホームの例を使って、持続可能な適応セキュリティを満たすシステムのMAPE(Monitor, Analysis, Planning, Execution)ループのアクティビティをどのように構築できるかを示します。
- 参考スコア(独自算出の注目度): 11.574868434725117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With software systems permeating our lives, we are entitled to expect that
such systems are secure by design, and that such security endures throughout
the use of these systems and their subsequent evolution. Although adaptive
security systems have been proposed to continuously protect assets from harm,
they can only mitigate threats arising from changes foreseen at design time. In
this paper, we propose the notion of Sustainable Adaptive Security (SAS) which
reflects such enduring protection by augmenting adaptive security systems with
the capability of mitigating newly discovered threats. To achieve this
objective, a SAS system should be designed by combining automation (e.g., to
discover and mitigate security threats) and human intervention (e.g., to
resolve uncertainties during threat discovery and mitigation). In this paper,
we use a smart home example to showcase how we can engineer the activities of
the MAPE (Monitor, Analysis, Planning, and Execution) loop of systems
satisfying sustainable adaptive security. We suggest that using anomaly
detection together with abductive reasoning can help discover new threats and
guide the evolution of security requirements and controls. We also exemplify
situations when humans can be involved in the execution of the activities of
the MAPE loop and discuss the requirements to engineer human interventions.
- Abstract(参考訳): 私たちの生活に浸透するソフトウェアシステムでは、そのようなシステムは設計によって安全であり、これらのシステムの使用とその後の進化を通じて、そのようなセキュリティが耐えられることを期待する権利があります。
資産を危害から継続的に保護するために、適応型セキュリティシステムが提案されているが、設計時の変更による脅威を軽減できるだけである。
本稿では,新たに発見された脅威を緩和する能力を備えた適応型セキュリティシステムを拡張することにより,持続的保護を反映した持続的適応型セキュリティ(sas)の概念を提案する。
この目的を達成するために、SASシステムは、自動化(例えば、セキュリティ脅威の発見と緩和)と人間の介入(例えば、脅威発見と緩和の間の不確実性を解決する)を組み合わせることで設計されるべきである。
本稿では、スマートホームの例を用いて、持続可能な適応セキュリティを満たすシステムのMAPEループ(監視、分析、計画、実行)のアクティビティをいかに構築できるかを示す。
我々は,異常検出とアブダプティブ推論を併用することで,新たな脅威の発見と,セキュリティ要件とコントロールの進化を導くことができることを示唆する。
また,MAPEループの動作の実行に人間が関与できる状況を実証し,人的介入の要求について議論する。
関連論文リスト
- Defining and Evaluating Physical Safety for Large Language Models [62.4971588282174]
大型言語モデル (LLM) は、ドローンのようなロボットシステムを制御するためにますます使われている。
現実世界のアプリケーションに物理的な脅威や害をもたらすリスクは、まだ解明されていない。
我々は,ドローンの物理的安全性リスクを,(1)目標脅威,(2)目標脅威,(3)インフラ攻撃,(4)規制違反の4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2024-11-04T17:41:25Z) - Realizable Continuous-Space Shields for Safe Reinforcement Learning [13.728961635717134]
深層強化学習(Dep Reinforcement Learning, DRL)は、時には破滅的な障害に対して、追加の保護なしに脆弱なままである。
効果的な解決策の1つは、エージェントのアクションを検証・調整するシールドを使用して、与えられた一連の安全仕様に準拠することである。
本研究では,連続状態および行動空間における安全要件の実現可能性を自動的に保証する最初の遮蔽手法を提案する。
論文 参考訳(メタデータ) (2024-10-02T21:08:11Z) - Automated Cybersecurity Compliance and Threat Response Using AI, Blockchain & Smart Contracts [0.36832029288386137]
人工知能(AI)、ブロックチェーン、スマートコントラクトを統合する新しいフレームワークを提案する。
本稿では,セキュリティポリシの実施を自動化し,手作業や潜在的なヒューマンエラーを減らすシステムを提案する。
論文 参考訳(メタデータ) (2024-09-12T20:38:14Z) - SafeEmbodAI: a Safety Framework for Mobile Robots in Embodied AI Systems [5.055705635181593]
物理的世界と自律的に対話するAIロボットを含む、身体化されたAIシステムは、かなり進歩している。
不適切な安全管理は、複雑な環境で障害を引き起こし、悪意のあるコマンドインジェクションに対してシステムが脆弱になる。
我々は,移動ロボットを組込みAIシステムに統合するための安全フレームワークであるtextitSafeEmbodAIを提案する。
論文 参考訳(メタデータ) (2024-09-03T05:56:50Z) - Cross-Modality Safety Alignment [73.8765529028288]
我々は、モダリティ間の安全アライメントを評価するために、セーフインプットとアンセーフアウトプット(SIUO)と呼ばれる新しい安全アライメントの課題を導入する。
この問題を実証的に調査するため,我々はSIUOを作成した。SIUOは,自己修復,違法行為,プライバシー侵害など,9つの重要な安全領域を含むクロスモダリティベンチマークである。
以上の結果から, クローズドおよびオープンソース両方のLVLMの安全性上の重大な脆弱性が明らかとなり, 複雑で現実的なシナリオを確実に解釈し, 応答する上で, 現行モデルが不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T16:14:15Z) - The MESA Security Model 2.0: A Dynamic Framework for Mitigating Stealth Data Exfiltration [0.0]
ステルスデータ流出は、隠蔽侵入、拡張された検出不能、機密データの不正な拡散を特徴とする重要なサイバー脅威である。
以上の結果から,従来の防衛戦略はこれらの高度な脅威に対処するには不十分であることが判明した。
この複雑な風景をナビゲートする上で、潜在的な脅威を予測し、防衛を継続的に更新することが重要です。
論文 参考訳(メタデータ) (2024-05-17T16:14:45Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。