論文の概要: SoK: Identifying Limitations and Bridging Gaps of Cybersecurity Capability Maturity Models (CCMMs)
- arxiv url: http://arxiv.org/abs/2408.16140v1
- Date: Wed, 28 Aug 2024 21:00:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-30 15:34:56.847794
- Title: SoK: Identifying Limitations and Bridging Gaps of Cybersecurity Capability Maturity Models (CCMMs)
- Title(参考訳): SoK:サイバーセキュリティ能力成熟度モデル(CCMM)の限界と橋渡しギャップの特定
- Authors: Lasini Liyanage, Nalin Asanka Gamagedara Arachchilage, Giovanni Russello,
- Abstract要約: サイバーセキュリティ能力成熟モデル(CCMM)は、組織のサイバーセキュリティ姿勢を強化する重要なツールとして出現する。
CCMMは、組織が現在のサイバーセキュリティ能力を評価し、重大なギャップを特定し、改善を優先するための構造化されたフレームワークを提供する。
しかし、CCMMの潜在能力は、実装や採用プロセスで遭遇したモデルや課題に固有の制限があるため、実現されないことが多い。
- 参考スコア(独自算出の注目度): 1.2016264781280588
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the rapidly evolving digital landscape, where organisations are increasingly vulnerable to cybersecurity threats, Cybersecurity Capability Maturity Models (CCMMs) emerge as pivotal tools in enhancing organisational cybersecurity posture. CCMMs provide a structured framework to guide organisations in assessing their current cybersecurity capabilities, identifying critical gaps, and prioritising improvements. However, the full potential of CCMMs is often not realised due to inherent limitations within the models and challenges encountered during their implementation and adoption processes. These limitations and challenges can significantly hamper the efficacy of CCMMs in improving cybersecurity. As a result, organisations remain vulnerable to cyber threats as they may fail to identify and address critical security gaps, implement necessary improvements or allocate resources effectively. To address these limitations and challenges, conducting a thorough investigation into existing models is essential. Therefore, we conducted a Systematic Literature Review (SLR) analysing 43 publications to identify existing CCMMs, their limitations, and the challenges organisations face when implementing and adopting them. By understanding these barriers, we aim to explore avenues for enhancing the efficacy of CCMMs, ensuring they more effectively meet the cybersecurity needs of organisational entities.
- Abstract(参考訳): サイバーセキュリティの脅威にますます脆弱な組織が急速に進化するデジタル世界では、サイバーセキュリティ能力成熟度モデル(CCMM)が、組織のサイバーセキュリティ姿勢を強化する重要なツールとして出現する。
CCMMは、組織が現在のサイバーセキュリティ能力を評価し、重大なギャップを特定し、改善を優先するための構造化されたフレームワークを提供する。
しかし、CCMMの潜在能力は、実装や採用プロセスで遭遇したモデルや課題に固有の制限があるため、実現されないことが多い。
これらの制限と課題は、サイバーセキュリティの改善におけるCCMMの有効性を著しく阻害する可能性がある。
その結果、重要なセキュリティギャップを特定し、対処したり、必要な改善を実装したり、リソースを効果的に割り当てたりすることができないため、組織はサイバー脅威に弱いままである。
これらの制限と課題に対処するためには、既存のモデルを徹底的に調査することが不可欠である。
そこで我々は,既存のCCMM,その制限,組織が実施・採用する際に直面する課題を識別するために,43の出版物を分析した。
これらの障壁を理解することで、CCMMの有効性を高め、組織組織のサイバーセキュリティニーズをより効果的に満たすための道を探究することを目指している。
関連論文リスト
- Securing Legacy Communication Networks via Authenticated Cyclic Redundancy Integrity Check [98.34702864029796]
認証サイクル冗長性チェック(ACRIC)を提案する。
ACRICは、追加のハードウェアを必要とせずに後方互換性を保持し、プロトコルに依存しない。
ACRICは最小送信オーバーヘッド(1ms)で堅牢なセキュリティを提供する。
論文 参考訳(メタデータ) (2024-11-21T18:26:05Z) - Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - SoK: Unifying Cybersecurity and Cybersafety of Multimodal Foundation Models with an Information Theory Approach [58.93030774141753]
MFM(Multimodal foundation model)は、人工知能の大幅な進歩を表す。
本稿では,マルチモーダル学習におけるサイバーセーフティとサイバーセキュリティを概念化する。
我々は、これらの概念をMFMに統一し、重要な脅威を特定するための総合的知識体系化(SoK)を提案する。
論文 参考訳(メタデータ) (2024-11-17T23:06:20Z) - Confronting the Reproducibility Crisis: A Case Study of Challenges in Cybersecurity AI [0.0]
AIベースのサイバーセキュリティの重要な領域は、悪意のある摂動からディープニューラルネットワークを守ることに焦点を当てている。
VeriGauge ツールキットを用いて,認証されたロバスト性に関する先行研究の結果の検証を試みる。
私たちの発見は、標準化された方法論、コンテナ化、包括的なドキュメントの緊急性の必要性を浮き彫りにしています。
論文 参考訳(メタデータ) (2024-05-29T04:37:19Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z) - Cybersecurity in Motion: A Survey of Challenges and Requirements for Future Test Facilities of CAVs [11.853500347907826]
協力的インテリジェントトランスポーテーションシステム(C-ITS)はこの進化の最前線にある。
本稿では,C-ITSのサイバーセキュリティの研究,試験,評価を促進するために設計された,CSCE(Cybersecurity Centre of Excellence)を提案する。
論文 参考訳(メタデータ) (2023-12-22T13:42:53Z) - Data Driven Approaches to Cybersecurity Governance for Board Decision-Making -- A Systematic Review [0.0]
本稿では,既存のリスク計測機器,サイバーセキュリティ指標,およびBoDをサポートするための関連モデルについて検討する。
その結果、高度なサイバーセキュリティツールが存在し、開発中であるにもかかわらず、取締役会が、彼らが理解している言語でサイバーセキュリティを管理するためのメトリクスとモデルの観点から、それらをサポートするための限られた情報が存在することがわかった。
論文 参考訳(メタデータ) (2023-11-29T12:14:01Z) - Deep VULMAN: A Deep Reinforcement Learning-Enabled Cyber Vulnerability
Management Framework [4.685954926214926]
サイバー脆弱性管理は、コンピュータやネットワークシステムにおけるサイバー攻撃から組織を保護するサイバーセキュリティ運用センター(CSOC)の重要な機能である。
現在のアプローチは決定論的であり、緩和のための脆弱性の優先順位付けや選択を行う際の将来の不確実性を考慮していない。
本稿では,サイバー脆弱性管理プロセスにおいて,このギャップを埋めるために,深層強化学習エージェントと整数プログラミングによる新しいフレームワークであるDeep VULMANを提案する。
論文 参考訳(メタデータ) (2022-08-03T22:32:48Z) - Elicitation of SME Requirements for Cybersecurity Solutions by Studying
Adherence to Recommendations [1.138723572165938]
中小企業(中小企業)がサイバー攻撃の弱点となっている。
多くの中小企業がサイバーセキュリティを採用していない理由の1つは、サイバーセキュリティソリューションの開発者が中小企業の文脈をほとんど理解していないことである。
本ポスターでは,サイバーセキュリティに関する中小企業の課題について解説し,サイバーセキュリティソリューションの要件を満たすためのアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-16T08:36:40Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。