論文の概要: SoK: Identifying Limitations and Bridging Gaps of Cybersecurity Capability Maturity Models (CCMMs)
- arxiv url: http://arxiv.org/abs/2408.16140v1
- Date: Wed, 28 Aug 2024 21:00:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-30 15:34:56.847794
- Title: SoK: Identifying Limitations and Bridging Gaps of Cybersecurity Capability Maturity Models (CCMMs)
- Title(参考訳): SoK:サイバーセキュリティ能力成熟度モデル(CCMM)の限界と橋渡しギャップの特定
- Authors: Lasini Liyanage, Nalin Asanka Gamagedara Arachchilage, Giovanni Russello,
- Abstract要約: サイバーセキュリティ能力成熟モデル(CCMM)は、組織のサイバーセキュリティ姿勢を強化する重要なツールとして出現する。
CCMMは、組織が現在のサイバーセキュリティ能力を評価し、重大なギャップを特定し、改善を優先するための構造化されたフレームワークを提供する。
しかし、CCMMの潜在能力は、実装や採用プロセスで遭遇したモデルや課題に固有の制限があるため、実現されないことが多い。
- 参考スコア(独自算出の注目度): 1.2016264781280588
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the rapidly evolving digital landscape, where organisations are increasingly vulnerable to cybersecurity threats, Cybersecurity Capability Maturity Models (CCMMs) emerge as pivotal tools in enhancing organisational cybersecurity posture. CCMMs provide a structured framework to guide organisations in assessing their current cybersecurity capabilities, identifying critical gaps, and prioritising improvements. However, the full potential of CCMMs is often not realised due to inherent limitations within the models and challenges encountered during their implementation and adoption processes. These limitations and challenges can significantly hamper the efficacy of CCMMs in improving cybersecurity. As a result, organisations remain vulnerable to cyber threats as they may fail to identify and address critical security gaps, implement necessary improvements or allocate resources effectively. To address these limitations and challenges, conducting a thorough investigation into existing models is essential. Therefore, we conducted a Systematic Literature Review (SLR) analysing 43 publications to identify existing CCMMs, their limitations, and the challenges organisations face when implementing and adopting them. By understanding these barriers, we aim to explore avenues for enhancing the efficacy of CCMMs, ensuring they more effectively meet the cybersecurity needs of organisational entities.
- Abstract(参考訳): サイバーセキュリティの脅威にますます脆弱な組織が急速に進化するデジタル世界では、サイバーセキュリティ能力成熟度モデル(CCMM)が、組織のサイバーセキュリティ姿勢を強化する重要なツールとして出現する。
CCMMは、組織が現在のサイバーセキュリティ能力を評価し、重大なギャップを特定し、改善を優先するための構造化されたフレームワークを提供する。
しかし、CCMMの潜在能力は、実装や採用プロセスで遭遇したモデルや課題に固有の制限があるため、実現されないことが多い。
これらの制限と課題は、サイバーセキュリティの改善におけるCCMMの有効性を著しく阻害する可能性がある。
その結果、重要なセキュリティギャップを特定し、対処したり、必要な改善を実装したり、リソースを効果的に割り当てたりすることができないため、組織はサイバー脅威に弱いままである。
これらの制限と課題に対処するためには、既存のモデルを徹底的に調査することが不可欠である。
そこで我々は,既存のCCMM,その制限,組織が実施・採用する際に直面する課題を識別するために,43の出版物を分析した。
これらの障壁を理解することで、CCMMの有効性を高め、組織組織のサイバーセキュリティニーズをより効果的に満たすための道を探究することを目指している。
関連論文リスト
- Generative AI for Secure Physical Layer Communications: A Survey [80.0638227807621]
Generative Artificial Intelligence(GAI)は、AIイノベーションの最前線に立ち、多様なコンテンツを生成するための急速な進歩と非並行的な能力を示す。
本稿では,通信ネットワークの物理層におけるセキュリティ向上におけるGAIの様々な応用について,広範な調査を行う。
私たちは、物理的レイヤセキュリティの課題に対処する上で、GAIの役割を掘り下げ、通信の機密性、認証、可用性、レジリエンス、整合性に重点を置いています。
論文 参考訳(メタデータ) (2024-02-21T06:22:41Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z) - The Security and Privacy of Mobile Edge Computing: An Artificial Intelligence Perspective [64.36680481458868]
Mobile Edge Computing (MEC)は、クラウドコンピューティングと情報技術(IT)サービスをネットワークのエッジで配信できるようにする新しいコンピューティングパラダイムである。
本稿では,人工知能(AI)の観点からMECのセキュリティとプライバシに関する調査を行う。
新たなセキュリティとプライバシの問題に加えて、AIの観点からの潜在的なソリューションにも重点を置いています。
論文 参考訳(メタデータ) (2024-01-03T07:47:22Z) - Cybersecurity in Motion: A Survey of Challenges and Requirements for Future Test Facilities of CAVs [11.853500347907826]
協力的インテリジェントトランスポーテーションシステム(C-ITS)はこの進化の最前線にある。
本稿では,C-ITSのサイバーセキュリティの研究,試験,評価を促進するために設計された,CSCE(Cybersecurity Centre of Excellence)を提案する。
論文 参考訳(メタデータ) (2023-12-22T13:42:53Z) - Data Driven Approaches to Cybersecurity Governance for Board Decision-Making -- A Systematic Review [0.0]
本稿では,既存のリスク計測機器,サイバーセキュリティ指標,およびBoDをサポートするための関連モデルについて検討する。
その結果、高度なサイバーセキュリティツールが存在し、開発中であるにもかかわらず、取締役会が、彼らが理解している言語でサイバーセキュリティを管理するためのメトリクスとモデルの観点から、それらをサポートするための限られた情報が存在することがわかった。
論文 参考訳(メタデータ) (2023-11-29T12:14:01Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Building Resilient SMEs: Harnessing Large Language Models for Cyber
Security in Australia [0.0]
オーストラリアの中小企業では、サイバー脅威に対する脆弱性が増加している。
人工知能(AI)、機械学習(ML)、大規模言語モデル(LLM)は、オーストラリアの中小企業のサイバーセキュリティポリシーを強化する可能性がある。
本研究は、オーストラリアの中小企業におけるサイバーセキュリティ政策の強化におけるLLMの役割について、包括的理解を提供する。
論文 参考訳(メタデータ) (2023-06-05T06:01:00Z) - Deep VULMAN: A Deep Reinforcement Learning-Enabled Cyber Vulnerability
Management Framework [4.685954926214926]
サイバー脆弱性管理は、コンピュータやネットワークシステムにおけるサイバー攻撃から組織を保護するサイバーセキュリティ運用センター(CSOC)の重要な機能である。
現在のアプローチは決定論的であり、緩和のための脆弱性の優先順位付けや選択を行う際の将来の不確実性を考慮していない。
本稿では,サイバー脆弱性管理プロセスにおいて,このギャップを埋めるために,深層強化学習エージェントと整数プログラミングによる新しいフレームワークであるDeep VULMANを提案する。
論文 参考訳(メタデータ) (2022-08-03T22:32:48Z) - Elicitation of SME Requirements for Cybersecurity Solutions by Studying
Adherence to Recommendations [1.138723572165938]
中小企業(中小企業)がサイバー攻撃の弱点となっている。
多くの中小企業がサイバーセキュリティを採用していない理由の1つは、サイバーセキュリティソリューションの開発者が中小企業の文脈をほとんど理解していないことである。
本ポスターでは,サイバーセキュリティに関する中小企業の課題について解説し,サイバーセキュリティソリューションの要件を満たすためのアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-16T08:36:40Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。