論文の概要: How hard can it be? Quantifying MITRE attack campaigns with attack trees and cATM logic
- arxiv url: http://arxiv.org/abs/2410.06692v1
- Date: Fri, 18 Oct 2024 16:34:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 04:10:03.652176
- Title: How hard can it be? Quantifying MITRE attack campaigns with attack trees and cATM logic
- Title(参考訳): どれだけ難しいのか?MITREの攻撃キャンペーンを、攻撃木とcATMロジックで定量化する
- Authors: Stefano M. Nicoletti, Milan Lopuhaä-Zwakenberg, Mariëlle Stoelinga, Fabio Massacci, Carlos E. Budde,
- Abstract要約: サイバーセキュリティの専門家は どのリスクが最も脅かされているかを評価するのに 適切なツールボックスを 装備しなければなりません
我々は、MITRE知識ベース上でのデータ駆動方式を用いて攻撃キャンペーンの可能性を定量化し、そのような枠組みを構築した。
本稿では,cATM形式論理に基づく比較を行うための計算フレームワークを提案し,これをオープンソースのPythonツールに実装する。
- 参考スコア(独自算出の注目度): 5.272829103690804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The landscape of cyber threats grows more complex by the day. Advanced Persistent Threats carry out systematic attack campaigns against which cybersecurity practitioners must defend. Examples of such organized attacks are operations Dream Job, Wocao, WannaCry or the SolarWinds Compromise. To evaluate which risks are most threatening, and which campaigns to prioritize against when defending, cybersecurity experts must be equipped with the right toolbox. In particular, they must be able to (a) obtain likelihood values for each attack campaign recorded in the wild and (b) reliably and transparently operationalize these values to carry out quantitative comparisons among campaigns. This will allow security experts to perform quantitatively-informed decision making that is transparent and accountable. In this paper we construct such a framework by: (1) quantifying the likelihood of attack campaigns via data-driven procedures on the MITRE knowledge base and (2) introducing a methodology for automatic modelling of MITRE intelligence data: this is complete in the sense that it captures any attack campaign via template attack tree models. (3) We further propose a computational framework to carry out this comparisons based on the cATM formal logic, and implement this into an open-source Python tool. Finally, we validate our approach by quantifying the likelihood of all MITRE campaigns, and comparing the likelihood of the Wocao and Dream Job MITRE campaigns -- generated with our proposed approach -- against "ad hoc" traditionally-built attack tree models, demonstrating how our methodology is substantially lighter in modelling effort, and still capable of capturing all the quantitative relevant data.
- Abstract(参考訳): サイバー脅威の状況は、一日でさらに複雑になる。
Advanced Persistent Threatsは、サイバーセキュリティの実践者が守らなければならない攻撃を組織的に行う。
このような組織化された攻撃の例としては、Dream Job、Wocao、WannaCry、SolarWinds Compromiseなどがある。
どのリスクが最も脅かされているか、どのキャンペーンが守られるかを評価するには、サイバーセキュリティの専門家に適切なツールボックスを設ける必要がある。
特に、彼らはできるはずです。
(a)野生に記録された各攻撃キャンペーンの確率値
b)これらの価値を確実かつ透過的に運用し、キャンペーン間で定量的比較を行う。
これにより、セキュリティの専門家は、透明性と説明責任のある定量的にインフォームドされた意思決定を実行できるようになる。
本稿では,(1)MITREナレッジベースにおけるデータ駆動方式による攻撃キャンペーンの可能性の定量化,(2)MITREインテリジェンスデータの自動モデリング手法の導入による攻撃キャンペーンの可能性を考察する。
さらに,cATM形式論理に基づく比較を行うための計算フレームワークを提案し,これをオープンソースのPythonツールに実装する。
最後に、我々のアプローチは、すべてのMITREキャンペーンの可能性を定量化し、WocaoとDream JobのMITREキャンペーン -- 提案されたアプローチで生成された -- を、伝統的に構築された攻撃ツリーモデルに対して比較することで検証し、我々の方法論がモデリングの取り組みにおいて大幅に軽量であり、それでもすべての量的関連データをキャプチャできることを示す。
関連論文リスト
- Using Retriever Augmented Large Language Models for Attack Graph Generation [0.7619404259039284]
本稿では,大規模言語モデル(LLM)を利用したアタックグラフの自動生成手法について検討する。
これは、Common Vulnerabilities and Exposures(CommonLLMs)を使用して、脅威レポートからアタックグラフを作成する方法を示している。
論文 参考訳(メタデータ) (2024-08-11T19:59:08Z) - Raccoon: Prompt Extraction Benchmark of LLM-Integrated Applications [8.51254190797079]
本稿では,抽出攻撃に対するモデルの感受性を包括的に評価するRacoonベンチマークを提案する。
本手法は,無防備シナリオと防御シナリオの両方でモデルを評価する。
本研究は,防衛の欠如を契機に,盗難を助長するための普遍的感受性を強調し,保護時に顕著なレジリエンスを示すOpenAIモデルを示した。
論文 参考訳(メタデータ) (2024-06-10T18:57:22Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - A Proactive Decoy Selection Scheme for Cyber Deception using MITRE ATT&CK [0.9831489366502301]
サイバー詐欺は、攻撃者の戦術、技術、手順(TTP)に対する守備隊の遅さを補うことができる。
本研究では,実世界の攻撃者の経験的観察に基づく敵モデルにより支援されたデコイ選択方式を設計する。
その結果,提案手法は最小のデコイを用いた攻撃経路のインターセプション率が最も高いことがわかった。
論文 参考訳(メタデータ) (2024-04-19T10:45:05Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Attack-SAM: Towards Attacking Segment Anything Model With Adversarial
Examples [68.5719552703438]
Segment Anything Model (SAM) は、様々なダウンストリームタスクにおける印象的なパフォーマンスのために、最近大きな注目を集めている。
深い視覚モデルは敵の例に弱いと広く認識されており、それはモデルを騙して知覚不能な摂動で間違った予測をする。
この研究は、SAMの攻撃方法に関する総合的な調査を敵対的な例で実施した最初のものである。
論文 参考訳(メタデータ) (2023-05-01T15:08:17Z) - Generalizable Black-Box Adversarial Attack with Meta Learning [54.196613395045595]
ブラックボックス攻撃では、ターゲットモデルのパラメータが不明であり、攻撃者はクエリのフィードバックに基づいて、クエリの予算に基づいて摂動を成功させることを目指している。
本稿では,実例レベルの逆転可能性という,過去の攻撃に対するフィードバック情報を活用することを提案する。
この2種類の逆転送性を持つフレームワークは,市販のクエリベースのアタック手法と自然に組み合わせて性能を向上させることができる。
論文 参考訳(メタデータ) (2023-01-01T07:24:12Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - I Know What You Trained Last Summer: A Survey on Stealing Machine
Learning Models and Defences [0.1031296820074812]
本研究では,モデル盗難攻撃について検討し,その性能を評価し,異なる環境で対応する防御技術を探究する。
攻撃・防衛アプローチのための分類法を提案し,目標と利用可能な資源に基づいて適切な攻撃・防衛を選択する方法に関するガイドラインを提供する。
論文 参考訳(メタデータ) (2022-06-16T21:16:41Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Certifying Decision Trees Against Evasion Attacks by Program Analysis [9.290879387995401]
本稿では,回避攻撃に対する機械学習モデルの安全性を検証する新しい手法を提案する。
提案手法は,決定木の解釈可能性を利用して命令型プログラムに変換する。
実験の結果,我々の手法は正確かつ効率的であり,最小限の偽陽性しか得られないことが判明した。
論文 参考訳(メタデータ) (2020-07-06T14:18:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。