論文の概要: Automated Repeatable Adversary Threat Emulation with Effects Language (EL)
- arxiv url: http://arxiv.org/abs/2510.06420v1
- Date: Tue, 07 Oct 2025 20:00:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.177296
- Title: Automated Repeatable Adversary Threat Emulation with Effects Language (EL)
- Title(参考訳): エフェクト言語(EL)を用いた反復型逆脅威自動エミュレーション
- Authors: Suresh K. Damodaran, Paul D. Rowe,
- Abstract要約: 本稿では,グラフに基づく操作意味論を備えた視覚言語であるエフェクト言語(EL)について紹介する。
複雑なマルチステップ攻撃に対する攻撃の証明にELをどのように利用できるかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emulation of multi-step attacks attributed to advanced persistent threats is valuable for training defenders and evaluating defense tools. In this paper, we discuss the numerous challenges and desired attributes associated with such automation. Additionally, we introduce the use of Effects Language (EL), a visual programming language with graph-based operational semantics, as a solution to address many of these challenges and requirements. We formally define the execution semantics of EL, and prove important execution properties. Furthermore, we showcase the application of EL to codify attacks using an example from one of the publicly available attack scenarios. We also demonstrate how EL can be utilized to provide proof-of-attack of complex multi-step attacks. Our results highlight the improvements in time and resource efficiency achieved through the use of EL for repeatable automation.
- Abstract(参考訳): 高度な永続的脅威に起因する多段階攻撃のエミュレーションは、ディフェンダーの訓練や防御ツールの評価に有用である。
本稿では,このような自動化に伴う課題と望ましい属性について論じる。
さらに、これらの課題や要件に対処するためのソリューションとして、グラフベースの操作意味論を備えたビジュアルプログラミング言語であるエフェクト言語(EL)を導入します。
ELの実行セマンティクスを正式に定義し、重要な実行特性を証明します。
さらに、一般に公開されている攻撃シナリオの例を例に、ELのアタックの体系化への応用を紹介した。
また,複雑なマルチステップ攻撃に対する攻撃の実証にELをどのように利用できるかを示す。
その結果,繰り返し自動化にELを用いることで実現した時間と資源効率の改善が注目された。
関連論文リスト
- TopicAttack: An Indirect Prompt Injection Attack via Topic Transition [92.26240528996443]
大規模言語モデル(LLM)は間接的なインジェクション攻撃に対して脆弱である。
提案するTopicAttackは,LLMに生成した遷移プロンプトを生成し,徐々にトピックをインジェクション命令にシフトさせる。
提案手法は, インジェクトからオリジナルへのアテンション比が高く, 成功確率が高く, ベースライン法よりもはるかに高い比を達成できることがわかった。
論文 参考訳(メタデータ) (2025-07-18T06:23:31Z) - AutoAdv: Automated Adversarial Prompting for Multi-Turn Jailbreaking of Large Language Models [0.0]
大規模言語モデル(LLM)は、ジェイルブレイク攻撃の脆弱性を示し続けている。
本稿では,敵対的即時生成を自動化する新しいフレームワークであるAutoAdvを紹介する。
我々の攻撃は、有害なコンテンツ生成に対して最大86%のジェイルブレイク成功率を達成したことを示す。
論文 参考訳(メタデータ) (2025-04-18T08:38:56Z) - Defense Against Prompt Injection Attack by Leveraging Attack Techniques [66.65466992544728]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクで顕著なパフォーマンスを実現している。
LLMが進化を続けるにつれて、新しい脆弱性、特にインジェクション攻撃が発生する。
近年の攻撃手法は, LLMの命令追従能力とデータ内容に注入された命令を識別する能力を活用している。
論文 参考訳(メタデータ) (2024-11-01T09:14:21Z) - Using Retriever Augmented Large Language Models for Attack Graph Generation [0.7619404259039284]
本稿では,大規模言語モデル(LLM)を利用したアタックグラフの自動生成手法について検討する。
これは、Common Vulnerabilities and Exposures(CommonLLMs)を使用して、脅威レポートからアタックグラフを作成する方法を示している。
論文 参考訳(メタデータ) (2024-08-11T19:59:08Z) - From Sands to Mansions: Towards Automated Cyberattack Emulation with Classical Planning and Large Language Models [10.557417449327868]
脅威情報による防衛をサポートするために、包括的で最新のサイバー攻撃データセットが必要である。
我々はAuroraを提案する。Auroraは、サードパーティの攻撃ツールと脅威情報レポートを使って、自律的にサイバー攻撃をエミュレートするシステムである。
Auroraを使って1000以上のアタックチェーンを含むデータセットを作成します。
論文 参考訳(メタデータ) (2024-07-24T01:33:57Z) - VL-Trojan: Multimodal Instruction Backdoor Attacks against
Autoregressive Visual Language Models [65.23688155159398]
VLM(Autoregressive Visual Language Models)は、マルチモーダルなコンテキストにおいて、驚くべき数ショットの学習機能を示す。
近年,マルチモーダル・インストラクション・チューニングが提案されている。
敵は、指示や画像に埋め込まれたトリガーで有毒なサンプルを注入することで、バックドアを埋め込むことができる。
本稿では,マルチモーダルなバックドア攻撃,すなわちVL-Trojanを提案する。
論文 参考訳(メタデータ) (2024-02-21T14:54:30Z) - L-AutoDA: Leveraging Large Language Models for Automated Decision-based Adversarial Attacks [16.457528502745415]
L-AutoDAは、Large Language Models (LLM) の生成能力を活用して、敵攻撃の設計を自動化する新しいアプローチである。
L-AutoDAは、進化的なフレームワークでLLMと反復的に対話することにより、人間の努力を伴わずに、競合する攻撃アルゴリズムを効率的に設計する。
CIFAR-10データセットに対するL-AutoDAの有効性を実証し、成功率と計算効率の両面でベースライン法よりも大幅に改善したことを示す。
論文 参考訳(メタデータ) (2024-01-27T07:57:20Z) - InferAligner: Inference-Time Alignment for Harmlessness through
Cross-Model Guidance [56.184255657175335]
我々は,無害アライメントのためのクロスモデルガイダンスを利用する新しい推論時間アライメント手法であるtextbfInferAligner を開発した。
実験結果から,本手法はファイナンス,医学,数学の分野特化モデルに極めて効果的に適用可能であることが示された。
これは有害な命令とジェイルブレイク攻撃の両方のアタック成功率(ASR)を著しく低下させ、下流タスクではほとんど変化のないパフォーマンスを維持している。
論文 参考訳(メタデータ) (2024-01-20T10:41:03Z) - Instruct2Attack: Language-Guided Semantic Adversarial Attacks [76.83548867066561]
Instruct2Attack (I2A) は、自由形式の言語命令に従って意味のある摂動を生成する言語誘導セマンティックアタックである。
我々は最先端の潜伏拡散モデルを用いて、逆拡散過程を逆ガイドし、入力画像とテキスト命令に条件付けされた逆潜伏符号を探索する。
I2Aは、強い敵の防御の下でも最先端のディープニューラルネットワークを破ることができることを示す。
論文 参考訳(メタデータ) (2023-11-27T05:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。