論文の概要: From Sands to Mansions: Towards Automated Cyberattack Emulation with Classical Planning and Large Language Models
- arxiv url: http://arxiv.org/abs/2407.16928v3
- Date: Thu, 17 Apr 2025 14:54:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:33:04.852548
- Title: From Sands to Mansions: Towards Automated Cyberattack Emulation with Classical Planning and Large Language Models
- Title(参考訳): 砂からマンション:古典的計画と大規模言語モデルによる自動サイバー攻撃エミュレーションを目指して
- Authors: Lingzhi Wang, Zhenyuan Li, Yi Jiang, Zhengkai Wang, Zonghan Guo, Jiahui Wang, Yangyang Wei, Xiangmin Shen, Wei Ruan, Yan Chen,
- Abstract要約: 脅威情報による防衛をサポートするために、包括的で最新のサイバー攻撃データセットが必要である。
我々はAuroraを提案する。Auroraは、サードパーティの攻撃ツールと脅威情報レポートを使って、自律的にサイバー攻撃をエミュレートするシステムである。
Auroraを使って1000以上のアタックチェーンを含むデータセットを作成します。
- 参考スコア(独自算出の注目度): 10.557417449327868
- License:
- Abstract: As attackers continually advance their tools, skills, and techniques during cyberattacks - particularly in modern Advanced Persistence Threats (APT) campaigns - there is a pressing need for a comprehensive and up-to-date cyberattack dataset to support threat-informed defense and enable benchmarking of defense systems in both academia and commercial solutions. However, there is a noticeable scarcity of cyberattack datasets: recent academic studies continue to rely on outdated benchmarks, while cyberattack emulation in industry remains limited due to the significant human effort and expertise required. Creating datasets by emulating advanced cyberattacks presents several challenges, such as limited coverage of attack techniques, the complexity of chaining multiple attack steps, and the difficulty of realistically mimicking actual threat groups. In this paper, we introduce modularized Attack Action and Attack Action Linking Model as a structured way to organizing and chaining individual attack steps into multi-step cyberattacks. Building on this, we propose Aurora, a system that autonomously emulates cyberattacks using third-party attack tools and threat intelligence reports with the help of classical planning and large language models. Aurora can automatically generate detailed attack plans, set up emulation environments, and semi-automatically execute the attacks. We utilize Aurora to create a dataset containing over 1,000 attack chains. To our best knowledge, Aurora is the only system capable of automatically constructing such a large-scale cyberattack dataset with corresponding attack execution scripts and environments. Our evaluation further demonstrates that Aurora outperforms the previous similar work and even the most advanced generative AI models in cyberattack emulation. To support further research, we published the cyberattack dataset and will publish the source code of Aurora.
- Abstract(参考訳): サイバー攻撃の間、攻撃者はツール、スキル、テクニックを継続的に前進させ、特に現代のAdvanced Persistence Threats(APT)キャンペーンでは、脅威に富んだ防衛をサポートし、アカデミックと商用の両方のソリューションにおける防衛システムのベンチマークを可能にする、包括的で最新のサイバー攻撃データセットの必要性が迫られている。
しかし、サイバー攻撃データセットは顕著に乏しく、最近の学術研究は時代遅れのベンチマークに頼り続けている。
高度なサイバーアタックをエミュレートしてデータセットを作成することは、攻撃テクニックの限られた範囲、複数のアタックステップのチェーンの複雑さ、実際の脅威グループを現実的に模倣することの難しさなど、いくつかの課題を示す。
本稿では,多段階のサイバーアタックに個別のアタックステップを編成・連鎖する構造的手法として,モジュール化されたアタックアクションとアタックアクションリンクモデルを提案する。
そこで我々は,サードパーティの攻撃ツールを用いたサイバー攻撃を自律的にエミュレートするシステムであるAuroraを提案する。
Auroraは、詳細な攻撃計画を自動的に生成し、エミュレーション環境を設定し、半自動で攻撃を実行する。
Auroraを使って1000以上のアタックチェーンを含むデータセットを作成します。
我々の知る限り、Auroraは大規模なサイバー攻撃データセットを対応する攻撃実行スクリプトと環境で自動構築できる唯一のシステムである。
我々の評価は、Auroraがサイバーアタックエミュレーションにおいて、これまでの類似した研究や、最も先進的な生成AIモデルよりも優れていることを示している。
さらなる研究を支援するため、サイバー攻撃データセットを公開し、Auroraのソースコードを公開する。
関連論文リスト
- AI-based Attacker Models for Enhancing Multi-Stage Cyberattack Simulations in Smart Grids Using Co-Simulation Environments [1.4563527353943984]
スマートグリッドへの移行により、高度なサイバー脅威に対する電力システムの脆弱性が増大した。
本稿では,モジュール型サイバーアタックの実行に自律エージェントを用いたシミュレーションフレームワークを提案する。
当社のアプローチは、データ生成のための柔軟で汎用的なソースを提供し、より高速なプロトタイピングと開発リソースと時間の削減を支援します。
論文 参考訳(メタデータ) (2024-12-05T08:56:38Z) - SoK: A Systems Perspective on Compound AI Threats and Countermeasures [3.458371054070399]
我々は、複合AIシステムに適用可能な、異なるソフトウェアとハードウェアの攻撃について議論する。
複数の攻撃機構を組み合わせることで、孤立攻撃に必要な脅威モデル仮定をいかに削減できるかを示す。
論文 参考訳(メタデータ) (2024-11-20T17:08:38Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [70.93622520400385]
本稿では,VLAに基づくロボットシステムのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する,標的のない位置認識型攻撃目標を提案する。
また、カメラの視野内に小さなカラフルなパッチを配置し、デジタル環境と物理環境の両方で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - Jailbreaking and Mitigation of Vulnerabilities in Large Language Models [4.564507064383306]
大規模言語モデル(LLM)は、自然言語の理解と生成を前進させることで、人工知能を変革した。
これらの進歩にもかかわらず、LSMは、特に注射と脱獄攻撃を急ぐために、かなりの脆弱性を示してきた。
このレビューでは、これらの脆弱性についての研究状況を分析し、利用可能な防衛戦略を提示する。
論文 参考訳(メタデータ) (2024-10-20T00:00:56Z) - Can We Trust Embodied Agents? Exploring Backdoor Attacks against Embodied LLM-based Decision-Making Systems [27.316115171846953]
大規模言語モデル(LLM)は、実世界のAI意思決定タスクにおいて大きな可能性を示している。
LLMは、固有の常識と推論能力を活用するために微調整され、特定の用途に適合する。
この微調整プロセスは、特に安全クリティカルなサイバー物理システムにおいて、かなりの安全性とセキュリティの脆弱性をもたらす。
論文 参考訳(メタデータ) (2024-05-27T17:59:43Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Baseline Defenses for Adversarial Attacks Against Aligned Language
Models [109.75753454188705]
最近の研究は、テキストのモデレーションが防御をバイパスするジェイルブレイクのプロンプトを生み出すことを示している。
検出(複雑度に基づく)、入力前処理(言い換えと再帰化)、対人訓練の3種類の防衛について検討する。
テキストに対する既存の離散化の弱点と比較的高いコストの最適化が組み合わさって、標準適応攻撃をより困難にしていることがわかった。
論文 参考訳(メタデータ) (2023-09-01T17:59:44Z) - Enabling Efficient Attack Investigation via Human-in-the-Loop Security Analysis [19.805667450941403]
ラプター(Raptor)は、人間の分析者が大規模システムの存在を効果的に分析できる防衛システムである。
ProvQLは、さまざまなタイプの攻撃分析に不可欠なプリミティブを提供する。
Raptorは、効率的な言語実行のための最適化された実行エンジンを提供する。
論文 参考訳(メタデータ) (2022-11-10T08:13:19Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。