論文の概要: How hard can it be? Quantifying MITRE attack campaigns with attack trees and cATM logic
- arxiv url: http://arxiv.org/abs/2410.06692v2
- Date: Fri, 18 Oct 2024 16:34:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 04:10:03.598962
- Title: How hard can it be? Quantifying MITRE attack campaigns with attack trees and cATM logic
- Title(参考訳): どれだけ難しいのか?MITREの攻撃キャンペーンを、攻撃木とcATMロジックで定量化する
- Authors: Stefano M. Nicoletti, Milan Lopuhaä-Zwakenberg, Mariëlle Stoelinga, Fabio Massacci, Carlos E. Budde,
- Abstract要約: サイバーセキュリティの専門家は どのリスクが最も脅かされているかを評価するのに 適切なツールボックスを 装備しなければなりません
我々は、MITRE知識ベース上でのデータ駆動方式を用いて攻撃キャンペーンの可能性を定量化し、そのような枠組みを構築した。
本稿では,cATM形式論理に基づく比較を行うための計算フレームワークを提案し,これをオープンソースのPythonツールに実装する。
- 参考スコア(独自算出の注目度): 5.272829103690804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The landscape of cyber threats grows more complex by the day. Advanced Persistent Threats carry out systematic attack campaigns against which cybersecurity practitioners must defend. Examples of such organized attacks are operations Dream Job, Wocao, WannaCry or the SolarWinds Compromise. To evaluate which risks are most threatening, and which campaigns to prioritize against when defending, cybersecurity experts must be equipped with the right toolbox. In particular, they must be able to (a) obtain likelihood values for each attack campaign recorded in the wild and (b) reliably and transparently operationalize these values to carry out quantitative comparisons among campaigns. This will allow security experts to perform quantitatively-informed decision making that is transparent and accountable. In this paper we construct such a framework by: (1) quantifying the likelihood of attack campaigns via data-driven procedures on the MITRE knowledge base and (2) introducing a methodology for automatic modelling of MITRE intelligence data: this is complete in the sense that it captures any attack campaign via template attack tree models. (3) We further propose a computational framework to carry out this comparisons based on the cATM formal logic, and implement this into an open-source Python tool. Finally, we validate our approach by quantifying the likelihood of all MITRE campaigns, and comparing the likelihood of the Wocao and Dream Job MITRE campaigns -- generated with our proposed approach -- against "ad hoc" traditionally-built attack tree models, demonstrating how our methodology is substantially lighter in modelling effort, and still capable of capturing all the quantitative relevant data.
- Abstract(参考訳): サイバー脅威の状況は、一日でさらに複雑になる。
Advanced Persistent Threatsは、サイバーセキュリティの実践者が守らなければならない攻撃を組織的に行う。
このような組織化された攻撃の例としては、Dream Job、Wocao、WannaCry、SolarWinds Compromiseなどがある。
どのリスクが最も脅かされているか、どのキャンペーンが守られるかを評価するには、サイバーセキュリティの専門家に適切なツールボックスを設ける必要がある。
特に、彼らはできるはずです。
(a)野生に記録された各攻撃キャンペーンの確率値
b)これらの価値を確実かつ透過的に運用し、キャンペーン間で定量的比較を行う。
これにより、セキュリティの専門家は、透明性と説明責任のある定量的にインフォームドされた意思決定を実行できるようになる。
本稿では,(1)MITREナレッジベースにおけるデータ駆動方式による攻撃キャンペーンの可能性の定量化,(2)MITREインテリジェンスデータの自動モデリング手法の導入による攻撃キャンペーンの可能性を考察する。
さらに,cATM形式論理に基づく比較を行うための計算フレームワークを提案し,これをオープンソースのPythonツールに実装する。
最後に、我々のアプローチは、すべてのMITREキャンペーンの可能性を定量化し、WocaoとDream JobのMITREキャンペーン -- 提案されたアプローチで生成された -- を、伝統的に構築された攻撃ツリーモデルに対して比較することで検証し、我々の方法論がモデリングの取り組みにおいて大幅に軽量であり、それでもすべての量的関連データをキャプチャできることを示す。
関連論文リスト
- Using Retriever Augmented Large Language Models for Attack Graph Generation [0.7619404259039284]
本稿では,大規模言語モデル(LLM)を利用したアタックグラフの自動生成手法について検討する。
これは、Common Vulnerabilities and Exposures(CommonLLMs)を使用して、脅威レポートからアタックグラフを作成する方法を示している。
論文 参考訳(メタデータ) (2024-08-11T19:59:08Z) - AttackER: Towards Enhancing Cyber-Attack Attribution with a Named Entity Recognition Dataset [1.9573380763700712]
サイバー攻撃の属性に関する最初のデータセットを提供する。
私たちのものは、句や文にまたがるいくつかのものを含む、コンテキストの詳細を持った豊富なアノテーションセットを提供します。
攻撃属性に対するデータセットの有効性を示すため,広範囲な実験を行い,NLP手法を適用した。
論文 参考訳(メタデータ) (2024-08-09T16:10:35Z) - From Sands to Mansions: Simulating Full Attack Chain with LLM-Organized Knowledge [10.065241604400223]
マルチステージ攻撃シミュレーションはシステム評価効率を高めるための有望なアプローチを提供する。
完全なアタックチェーンをシミュレートするのは複雑で、セキュリティ専門家からはかなりの時間と専門知識が必要です。
我々は、外部攻撃ツールと脅威情報レポートに基づいて、完全な攻撃チェーンを自律的にシミュレートするシステムであるAuroraを紹介する。
論文 参考訳(メタデータ) (2024-07-24T01:33:57Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - A Proactive Decoy Selection Scheme for Cyber Deception using MITRE ATT&CK [0.9831489366502301]
サイバー詐欺は、攻撃者の戦術、技術、手順(TTP)に対する守備隊の遅さを補うことができる。
本研究では,実世界の攻撃者の経験的観察に基づく敵モデルにより支援されたデコイ選択方式を設計する。
その結果,提案手法は最小のデコイを用いた攻撃経路のインターセプション率が最も高いことがわかった。
論文 参考訳(メタデータ) (2024-04-19T10:45:05Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Attack-SAM: Towards Attacking Segment Anything Model With Adversarial
Examples [68.5719552703438]
Segment Anything Model (SAM) は、様々なダウンストリームタスクにおける印象的なパフォーマンスのために、最近大きな注目を集めている。
深い視覚モデルは敵の例に弱いと広く認識されており、それはモデルを騙して知覚不能な摂動で間違った予測をする。
この研究は、SAMの攻撃方法に関する総合的な調査を敵対的な例で実施した最初のものである。
論文 参考訳(メタデータ) (2023-05-01T15:08:17Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z) - I Know What You Trained Last Summer: A Survey on Stealing Machine
Learning Models and Defences [0.1031296820074812]
本研究では,モデル盗難攻撃について検討し,その性能を評価し,異なる環境で対応する防御技術を探究する。
攻撃・防衛アプローチのための分類法を提案し,目標と利用可能な資源に基づいて適切な攻撃・防衛を選択する方法に関するガイドラインを提供する。
論文 参考訳(メタデータ) (2022-06-16T21:16:41Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。