論文の概要: From Sands to Mansions: Enabling Automatic Full-Life-Cycle Cyberattack Construction with LLM
- arxiv url: http://arxiv.org/abs/2407.16928v1
- Date: Wed, 24 Jul 2024 01:33:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-25 15:12:43.197201
- Title: From Sands to Mansions: Enabling Automatic Full-Life-Cycle Cyberattack Construction with LLM
- Title(参考訳): 砂からマンション:LLMによるフルライフサイクルサイバー攻撃の自動化
- Authors: Lingzhi Wang, Jiahui Wang, Kyle Jung, Kedar Thiagarajan, Emily Wei, Xiangmin Shen, Yan Chen, Zhenyuan Li,
- Abstract要約: 既存のサイバー攻撃シミュレーションフレームワークは、限られた技術的カバレッジ、フルライフサイクルの攻撃を行うことができないこと、手動のインフラ構築の必要性といった課題に直面している。
我々は,自動エンドツーエンドサイバー攻撃構築・エミュレーションフレームワークであるAURORAを提案する。
AURORAは、サイバー脅威インテリジェンス(CTI)レポートに基づいて、自律的に多段階のサイバー攻撃計画を構築でき、エミュレーションインフラを構築し、攻撃手順を実行することができる。
- 参考スコア(独自算出の注目度): 6.534605400247412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The escalating battles between attackers and defenders in cybersecurity make it imperative to test and evaluate defense capabilities from the attackers' perspective. However, constructing full-life-cycle cyberattacks and performing red team emulations requires significant time and domain knowledge from security experts. Existing cyberattack simulation frameworks face challenges such as limited technical coverage, inability to conduct full-life-cycle attacks, and the need for manual infrastructure building. These limitations hinder the quality and diversity of the constructed attacks. In this paper, we leveraged the capabilities of Large Language Models (LLMs) in summarizing knowledge from existing attack intelligence and generating executable machine code based on human knowledge. we proposed AURORA, an automatic end-to-end cyberattack construction and emulation framework. AURORA can autonomously build multi-stage cyberattack plans based on Cyber Threat Intelligence (CTI) reports, construct the emulation infrastructures, and execute the attack procedures. We also developed an attack procedure knowledge graph to integrate knowledge about attack techniques throughout the full life cycle of advanced cyberattacks from various sources. We constructed and evaluated more than 20 full-life-cycle cyberattacks based on existing CTI reports. Compared to previous attack simulation frameworks, AURORA can construct multi-step attacks and the infrastructures in several minutes without human intervention. Furthermore, AURORA incorporates a wider range (40% more) of attack techniques into the constructed attacks in a more efficient way than the professional red teams. To benefit further research, we open-sourced the dataset containing the execution files and infrastructures of 20 emulated cyberattacks.
- Abstract(参考訳): サイバーセキュリティにおける攻撃者と防衛者の間の戦闘の激化は、攻撃者の視点からの防衛能力のテストと評価を義務付ける。
しかしながら、フルライフサイクルのサイバー攻撃の構築とレッドチームエミュレーションの実行には、セキュリティ専門家によるかなりの時間とドメイン知識が必要である。
既存のサイバー攻撃シミュレーションフレームワークは、限られた技術的カバレッジ、フルライフサイクルの攻撃を行うことができないこと、手動のインフラ構築の必要性といった課題に直面している。
これらの制限は、構築された攻撃の品質と多様性を妨げる。
本稿では,Large Language Models(LLM)の機能を活用し,既存の攻撃情報から知識を要約し,人間の知識に基づいて実行可能なマシンコードを生成する。
我々は,自動エンドツーエンドサイバー攻撃構築とエミュレーションの枠組みであるAURORAを提案した。
AURORAは、サイバー脅威インテリジェンス(CTI)レポートに基づいて、自律的に多段階のサイバー攻撃計画を構築でき、エミュレーションインフラを構築し、攻撃手順を実行することができる。
また,攻撃手法に関する知識を,各種情報源からの高度なサイバー攻撃のライフサイクル全体を通して統合する攻撃手順知識グラフも開発した。
我々は,既存のCTIレポートに基づいて,20以上のフルライフサイクルサイバー攻撃を構築し,評価した。
従来の攻撃シミュレーションフレームワークと比較して、AURORAは人間の介入なしに数分で多段階攻撃とインフラを構築することができる。
さらにAURORAは、プロのレッドチームよりも効率的な方法で、より広い範囲(40%以上)の攻撃テクニックを構築された攻撃に組み込んでいる。
さらなる研究の恩恵を得るために、20のエミュレートされたサイバー攻撃による実行ファイルとインフラを含むデータセットをオープンソース化した。
関連論文リスト
- AI-based Attacker Models for Enhancing Multi-Stage Cyberattack Simulations in Smart Grids Using Co-Simulation Environments [1.4563527353943984]
スマートグリッドへの移行により、高度なサイバー脅威に対する電力システムの脆弱性が増大した。
本稿では,モジュール型サイバーアタックの実行に自律エージェントを用いたシミュレーションフレームワークを提案する。
当社のアプローチは、データ生成のための柔軟で汎用的なソースを提供し、より高速なプロトタイピングと開発リソースと時間の削減を支援します。
論文 参考訳(メタデータ) (2024-12-05T08:56:38Z) - SoK: A Systems Perspective on Compound AI Threats and Countermeasures [3.458371054070399]
我々は、複合AIシステムに適用可能な、異なるソフトウェアとハードウェアの攻撃について議論する。
複数の攻撃機構を組み合わせることで、孤立攻撃に必要な脅威モデル仮定をいかに削減できるかを示す。
論文 参考訳(メタデータ) (2024-11-20T17:08:38Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [70.93622520400385]
本稿では,VLAに基づくロボットシステムのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する,標的のない位置認識型攻撃目標を提案する。
また、カメラの視野内に小さなカラフルなパッチを配置し、デジタル環境と物理環境の両方で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - Jailbreaking and Mitigation of Vulnerabilities in Large Language Models [4.564507064383306]
大規模言語モデル(LLM)は、自然言語の理解と生成を前進させることで、人工知能を変革した。
これらの進歩にもかかわらず、LSMは、特に注射と脱獄攻撃を急ぐために、かなりの脆弱性を示してきた。
このレビューでは、これらの脆弱性についての研究状況を分析し、利用可能な防衛戦略を提示する。
論文 参考訳(メタデータ) (2024-10-20T00:00:56Z) - Can We Trust Embodied Agents? Exploring Backdoor Attacks against Embodied LLM-based Decision-Making Systems [27.316115171846953]
大規模言語モデル(LLM)は、実世界のAI意思決定タスクにおいて大きな可能性を示している。
LLMは、固有の常識と推論能力を活用するために微調整され、特定の用途に適合する。
この微調整プロセスは、特に安全クリティカルなサイバー物理システムにおいて、かなりの安全性とセキュリティの脆弱性をもたらす。
論文 参考訳(メタデータ) (2024-05-27T17:59:43Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Baseline Defenses for Adversarial Attacks Against Aligned Language
Models [109.75753454188705]
最近の研究は、テキストのモデレーションが防御をバイパスするジェイルブレイクのプロンプトを生み出すことを示している。
検出(複雑度に基づく)、入力前処理(言い換えと再帰化)、対人訓練の3種類の防衛について検討する。
テキストに対する既存の離散化の弱点と比較的高いコストの最適化が組み合わさって、標準適応攻撃をより困難にしていることがわかった。
論文 参考訳(メタデータ) (2023-09-01T17:59:44Z) - Enabling Efficient Attack Investigation via Human-in-the-Loop Security Analysis [19.805667450941403]
ラプター(Raptor)は、人間の分析者が大規模システムの存在を効果的に分析できる防衛システムである。
ProvQLは、さまざまなタイプの攻撃分析に不可欠なプリミティブを提供する。
Raptorは、効率的な言語実行のための最適化された実行エンジンを提供する。
論文 参考訳(メタデータ) (2022-11-10T08:13:19Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。