論文の概要: Laccolith: Hypervisor-Based Adversary Emulation with Anti-Detection
- arxiv url: http://arxiv.org/abs/2311.08274v2
- Date: Fri, 17 Nov 2023 08:38:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 23:22:19.330351
- Title: Laccolith: Hypervisor-Based Adversary Emulation with Anti-Detection
- Title(参考訳): Laccolith: 抗検出によるハイパーバイザベースの逆エミュレーション
- Authors: Vittorio Orbinato, Marco Carlo Feliciano, Domenico Cotroneo, Roberto Natella,
- Abstract要約: ラッコリス(Laccolith)は、抗検出を伴う敵エミュレーションのソリューションである。
我々はLaccolithとMITRE CALDERAを比較した。
- 参考スコア(独自算出の注目度): 5.978350039412277
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advanced Persistent Threats (APTs) represent the most threatening form of attack nowadays since they can stay undetected for a long time. Adversary emulation is a proactive approach for preparing against these attacks. However, adversary emulation tools lack the anti-detection abilities of APTs. We introduce Laccolith, a hypervisor-based solution for adversary emulation with anti-detection to fill this gap. We also present an experimental study to compare Laccolith with MITRE CALDERA, a state-of-the-art solution for adversary emulation, against five popular anti-virus products. We found that CALDERA cannot evade detection, limiting the realism of emulated attacks, even when combined with a state-of-the-art anti-detection framework. Our experiments show that Laccolith can hide its activities from all the tested anti-virus products, thus making it suitable for realistic emulations.
- Abstract(参考訳): 先進的永続脅威(Advanced Persistent Threats、APT)は、現在最も危険な攻撃形態である。
敵エミュレーション(Adversary Emulation)は、これらの攻撃に備える積極的なアプローチである。
しかし、敵エミュレーションツールはAPTの抗検出能力に欠けていた。
本稿では,このギャップを埋めるために,対向エミュレーションとアンチ検出を併用したハイパーバイザベースのソリューションであるLaccolithを紹介する。
また,敵エミュレーションの最先端ソリューションであるMITRE CALDERAとLaccolithの比較実験を行った。
CALDERAは、最先端のアンチ検出フレームワークと組み合わせても、エミュレートされた攻撃の現実性を制限することができず、検出を回避できないことがわかった。
実験の結果,Laccolithは全抗ウイルス製品から活性を隠蔽し,現実的なエミュレーションに適応できることがわかった。
関連論文リスト
- Improving Adversarial Robustness in Android Malware Detection by Reducing the Impact of Spurious Correlations [3.7937308360299116]
機械学習(ML)は、Androidのマルウェア検出(AMD)において大きな進歩を見せている。
しかし、現実的な回避攻撃に対するMLのレジリエンスは、AMDにとって大きな障害である。
本研究では,マルウェアサンプルとAEの分布を調整することで,AMDの一般化性を向上させるための領域適応手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T17:01:12Z) - Fight Fire with Fire: Combating Adversarial Patch Attacks using Pattern-randomized Defensive Patches [12.329244399788669]
オブジェクト検出は、敵のパッチ攻撃の影響を受けやすい。
本稿では,敵の攻撃を防御するための新規かつ汎用的な手法を提案する。
カナリアとウッドペッカーの2種類の防御パッチが特別に製作され、モデル入力に注入され、潜在的な敵のパッチを積極的に調査または対向させる。
論文 参考訳(メタデータ) (2023-11-10T15:36:57Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - PAD: Towards Principled Adversarial Malware Detection Against Evasion
Attacks [17.783849474913726]
本稿では,PAD(Principled Adversarial Malware Detection)と呼ばれる新しい対向学習フレームワークを提案する。
PADは、マルウェア検出装置を敵から守るために、分布的に離散的な摂動を定量化する学習可能な凸測定を基礎としている。
PADは、83.45%以上の精度で、27の回避攻撃に対するMLベースのマルウェア検出を強化できる。
VirusTotalの多くのアンチマルウェアスキャナーと、現実的な敵のマルウェアとを一致または性能で比較する。
論文 参考訳(メタデータ) (2023-02-22T12:24:49Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。