論文の概要: A Machine Learning based Empirical Evaluation of Cyber Threat Actors
High Level Attack Patterns over Low level Attack Patterns in Attributing
Attacks
- arxiv url: http://arxiv.org/abs/2307.10252v1
- Date: Mon, 17 Jul 2023 08:58:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 16:39:38.510205
- Title: A Machine Learning based Empirical Evaluation of Cyber Threat Actors
High Level Attack Patterns over Low level Attack Patterns in Attributing
Attacks
- Title(参考訳): 帰属攻撃における低レベル攻撃パターンに対するサイバー脅威アクタのハイレベル攻撃パターンの機械学習による実証評価
- Authors: Umara Noor, Sawera Shahid, Rimsha Kanwal, Zahid Rashid
- Abstract要約: 正確かつタイムリーな脅威帰属は、適切な、タイムリーな防御機構を適用することによって、将来の攻撃を阻止する上で重要な役割を果たす。
ハニーポット配置、侵入検知システム、ファイアウォール、トレースバック手順によって収集された攻撃パターンを手動で分析することは、サイバー脅威の帰属にセキュリティアナリストが好む方法である。
これらの攻撃パターンは、妥協の低レベル指標である。
我々は,高レベルIOCとの比較分析のために構築された実世界のデータセットに基づいて,低レベルIOCの有効性を実証的に評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cyber threat attribution is the process of identifying the actor of an attack
incident in cyberspace. An accurate and timely threat attribution plays an
important role in deterring future attacks by applying appropriate and timely
defense mechanisms. Manual analysis of attack patterns gathered by honeypot
deployments, intrusion detection systems, firewalls, and via trace-back
procedures is still the preferred method of security analysts for cyber threat
attribution. Such attack patterns are low-level Indicators of Compromise (IOC).
They represent Tactics, Techniques, Procedures (TTP), and software tools used
by the adversaries in their campaigns. The adversaries rarely re-use them. They
can also be manipulated, resulting in false and unfair attribution. To
empirically evaluate and compare the effectiveness of both kinds of IOC, there
are two problems that need to be addressed. The first problem is that in recent
research works, the ineffectiveness of low-level IOC for cyber threat
attribution has been discussed intuitively. An empirical evaluation for the
measure of the effectiveness of low-level IOC based on a real-world dataset is
missing. The second problem is that the available dataset for high-level IOC
has a single instance for each predictive class label that cannot be used
directly for training machine learning models. To address these problems in
this research work, we empirically evaluate the effectiveness of low-level IOC
based on a real-world dataset that is specifically built for comparative
analysis with high-level IOC. The experimental results show that the high-level
IOC trained models effectively attribute cyberattacks with an accuracy of 95%
as compared to the low-level IOC trained models where accuracy is 40%.
- Abstract(参考訳): サイバー脅威の帰属は、サイバースペースにおける攻撃事件の犯人を特定する過程である。
正確でタイムリーな脅威の帰属は、適切な、タイムリーな防御機構を適用することによって将来の攻撃を抑止する上で重要な役割を果たす。
ハニーポットの展開、侵入検知システム、ファイアウォール、およびトレースバック手順によって収集された攻撃パターンの手動分析は、依然としてサイバー脅威の帰属に対するセキュリティ分析の好適な方法である。
このような攻撃パターンは、妥協の低レベル指標(IOC)である。
彼らは戦術、技術、手続き(TTP)、および敵がキャンペーンで使用するソフトウェアツールを表現している。
敵が再使用することは滅多にない。
それらは操作も可能で、結果として偽りや不公平な帰属が生じる。
両種のIOCの有効性を実証的に評価し,比較するためには,対処すべき問題が2つある。
第1の問題は、最近の研究において、サイバー脅威の帰属に対する低レベルのIOCの非効率性が直感的に議論されていることである。
実世界のデータセットに基づく低レベルIOCの有効性の測定のための実証的評価が欠落している。
第2の問題は、高レベルのIOCで利用可能なデータセットが、マシンラーニングモデルのトレーニングに直接使用できない予測クラスラベル毎に単一のインスタンスを持つことだ。
本研究では,これらの課題に対処するために,高次IOCとの比較分析のために構築された実世界のデータセットに基づいて,低次IOCの有効性を実証的に評価する。
実験の結果,高レベルのIOCトレーニングモデルでは,精度が40%の低レベルのIOCトレーニングモデルと比較して,95%の精度でサイバー攻撃を効果的に評価した。
関連論文リスト
- A Dual-Tier Adaptive One-Class Classification IDS for Emerging Cyberthreats [3.560574387648533]
2層構造を有する一級分類駆動型IDSシステムを提案する。
第1層は通常の活動と攻撃/脅威を区別し、第2層は検出された攻撃が未知であるかを判定する。
このモデルは、目に見えない攻撃を識別するだけでなく、目に見えない攻撃をクラスタリングすることでそれらを再トレーニングするために使用する。
論文 参考訳(メタデータ) (2024-03-17T12:26:30Z) - usfAD Based Effective Unknown Attack Detection Focused IDS Framework [3.560574387648533]
Internet of Things(IoT)とIndustrial Internet of Things(IIoT)は、サイバー脅威の増加につながっている。
10年以上にわたり、研究者は侵入検知システム(IDS)を開発するための教師付き機械学習技術を模索してきた。
既知のデータセット上でトレーニングされ、テストされたIDSは、ゼロデイまたは未知の攻撃を検出するのに失敗する。
我々は,攻撃の訓練サンプルを必要としない,半教師付き学習に基づくIDSのための2つの戦略を提案する。
論文 参考訳(メタデータ) (2024-03-17T11:49:57Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification [0.0]
IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
論文 参考訳(メタデータ) (2023-01-30T18:00:28Z) - DODEM: DOuble DEfense Mechanism Against Adversarial Attacks Towards
Secure Industrial Internet of Things Analytics [8.697883716452385]
I-IoT環境における敵攻撃の検出と軽減のための二重防御機構を提案する。
まず、新規性検出アルゴリズムを用いて、サンプルに対して逆攻撃があるかどうかを検知する。
攻撃があった場合、敵の再訓練はより堅牢なモデルを提供する一方、通常のサンプルに対して標準的な訓練を適用する。
論文 参考訳(メタデータ) (2023-01-23T22:10:40Z) - Adversarial Training with Complementary Labels: On the Benefit of
Gradually Informative Attacks [119.38992029332883]
不完全な監督を伴う敵の訓練は重要であるが、注意は限られている。
我々は、徐々に情報的攻撃を用いた新しい学習戦略を提案する。
提案手法の有効性を,ベンチマークデータセットを用いて実証する実験を行った。
論文 参考訳(メタデータ) (2022-11-01T04:26:45Z) - Poisoning Attack against Estimating from Pairwise Comparisons [140.9033911097995]
攻撃者はランクリストを操作するための強い動機と動機を持っている。
ペアワイズランキングアルゴリズムに対するデータ中毒攻撃は、ローダとアタッカーの間の動的および静的ゲームとして形式化することができる。
本稿では、2つの効率的な毒殺攻撃アルゴリズムを提案し、関連する理論的保証を確立する。
論文 参考訳(メタデータ) (2021-07-05T08:16:01Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Feature Partitioning for Robust Tree Ensembles and their Certification
in Adversarial Scenarios [8.300942601020266]
モデルが安全な環境でトレーニングされ、テスト時に攻撃にさらされる、回避攻撃に焦点を当てます。
我々は,与えられたデータセットの特徴に基づく分割に基づいて基本モデルをトレーニングすることにより,堅牢なアンサンブルを構築するモデルに依存しない戦略を提案する。
我々のアルゴリズムは、アンサンブルのほとんどのモデルが攻撃者の影響を受けないことを保証する。
論文 参考訳(メタデータ) (2020-04-07T12:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。