論文の概要: From Legacy to Standard: LLM-Assisted Transformation of Cybersecurity Playbooks into CACAO Format
- arxiv url: http://arxiv.org/abs/2508.03342v1
- Date: Tue, 05 Aug 2025 11:43:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.938547
- Title: From Legacy to Standard: LLM-Assisted Transformation of Cybersecurity Playbooks into CACAO Format
- Title(参考訳): レガシーから標準へ:LCMによるサイバーセキュリティプレイブックのCACAOフォーマットへの変換
- Authors: Mehdi Akbari Gurabi, Lasse Nitz, Radu-Mihai Castravet, Roman Matzutt, Avikarsha Mandal, Stefan Decker,
- Abstract要約: 既存のサイバーセキュリティのプレイブックは、しばしば異質で非機械可読なフォーマットで書かれる。
本稿では,従来のインシデント対応プレイブックを機械可読のCACAOフォーマットに自動翻訳するために,Prompt Engineeringと組み合わされた大規模言語モデルの適合性について検討する。
- 参考スコア(独自算出の注目度): 0.5339846068056558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing cybersecurity playbooks are often written in heterogeneous, non-machine-readable formats, which limits their automation and interoperability across Security Orchestration, Automation, and Response platforms. This paper explores the suitability of Large Language Models, combined with Prompt Engineering, to automatically translate legacy incident response playbooks into the standardized, machine-readable CACAO format. We systematically examine various Prompt Engineering techniques and carefully design prompts aimed at maximizing syntactic accuracy and semantic fidelity for control flow preservation. Our modular transformation pipeline integrates a syntax checker to ensure syntactic correctness and features an iterative refinement mechanism that progressively reduces syntactic errors. We evaluate the proposed approach on a custom-generated dataset comprising diverse legacy playbooks paired with manually created CACAO references. The results demonstrate that our method significantly improves the accuracy of playbook transformation over baseline models, effectively captures complex workflow structures, and substantially reduces errors. It highlights the potential for practical deployment in automated cybersecurity playbook transformation tasks.
- Abstract(参考訳): 既存のサイバーセキュリティプレイブックは、しばしば異質で非機械可読なフォーマットで書かれており、セキュリティオーケストレーション、オートメーション、レスポンスプラットフォーム間の自動化と相互運用性を制限する。
本稿では,従来のインシデント対応プレイブックを機械可読のCACAOフォーマットに自動翻訳するために,Prompt Engineeringと組み合わされた大規模言語モデルの適合性について検討する。
制御フロー保存のための構文的精度と意味的忠実度を最大化することを目的とした,様々なプロンプト工学手法と設計プロンプトを体系的に検討した。
モジュールトランスフォーメーションパイプラインは構文的正しさを保証するために構文チェッカーを統合し,構文的エラーを段階的に低減する反復的改善機構を備えている。
提案手法は,CACAO参照と組み合わせた多様なレガシープレイブックからなるカスタム生成データセットに対して評価する。
その結果,本手法はベースラインモデル上でのプレイブック変換の精度を大幅に向上し,複雑なワークフロー構造を効果的に捕捉し,エラーを大幅に低減することを示した。
自動サイバーセキュリティプレイブック変換タスクの実践的展開の可能性を強調している。
関連論文リスト
- Leveraging Machine Learning and Enhanced Parallelism Detection for BPMN Model Generation from Text [75.77648333476776]
本稿では、テキストからBPMNモデルを抽出する自動パイプラインについて紹介する。
この研究の重要な貢献は、新たに注釈付けされたデータセットの導入である。
モデルトレーニング用の32のパラレルゲートウェイを含む15の注釈付き文書でデータセットを増強する。
論文 参考訳(メタデータ) (2025-07-11T07:25:55Z) - $φ^{\infty}$: Clause Purification, Embedding Realignment, and the Total Suppression of the Em Dash in Autoregressive Language Models [0.0]
自動回帰変換言語モデルにおいて,エムダッシュトークンがセマンティックドリフトを引き起こす重大な脆弱性を同定する。
本稿では,フィインフィニティ演算子とターゲット埋め込み行列を併用した記号節の浄化法を提案する。
論文 参考訳(メタデータ) (2025-06-22T18:27:39Z) - Contextually Guided Transformers via Low-Rank Adaptation [14.702057924366345]
変換器をベースとした大規模言語モデル(LLM)は、テキスト処理において優れているが、特殊な振る舞いのプロンプトに依存しているため、計算オーバーヘッドが生じる。
本稿では,モデル重みにコンテキストをエンコードすることで,明示的なプロンプトの必要性を解消するトランスフォーマーアーキテクチャの修正を提案する。
論文 参考訳(メタデータ) (2025-06-06T01:34:39Z) - AI4Contracts: LLM & RAG-Powered Encoding of Financial Derivative Contracts [1.3060230641655135]
大規模言語モデル(LLM)と検索拡張生成(RAG)は、AIシステムが構造化されていないテキストから情報を抽出し整理する方法を再構築している。
本稿では,テンプレート駆動型LLMフレームワークであるCDMizerと,構造化テキスト変換のためのRAGベースのフレームワークを紹介する。
論文 参考訳(メタデータ) (2025-06-01T16:05:00Z) - Enhancing Latent Computation in Transformers with Latent Tokens [48.371764897314]
補助トークンを用いた大規模言語モデルの拡張が,モデル性能向上のための有望な戦略として浮上している。
我々は遅延トークンと呼ばれる軽量な手法を導入し、これらは自然言語では解釈不能なダミートークンである。
提案した潜在トークンは、トレーニング済みのTransformerとシームレスに統合され、パラメータ効率のよい方法で訓練され、推論時に柔軟に適用できる。
論文 参考訳(メタデータ) (2025-05-19T02:35:53Z) - Learning Task Representations from In-Context Learning [73.72066284711462]
大規模言語モデル(LLM)は、文脈内学習において顕著な習熟性を示している。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法の有効性は,最後の隠れ状態の分布と最適に実行されたテキスト内学習モデルとの整合性に起因していることを示す。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - Autoregressive Speech Synthesis without Vector Quantization [135.4776759536272]
We present MELLE, a novel continuous-valued token based language modeling approach for text-to-speech synthesis (TTS)。
MELLEはテキスト条件から直接連続メル-スペクトログラムフレームを自動回帰生成する。
MELLEは、サンプリングベクトル量子化符号の固有の欠陥を回避し、ロバスト性問題を緩和する。
論文 参考訳(メタデータ) (2024-07-11T14:36:53Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - G-SPEED: General SParse Efficient Editing MoDel [25.48360227520061]
underlinetextbfGeneral underlinetextbfSParse underlinetextbfEfficient underlinetextbfEditing MounderlinetextbfDel(textbfG-SPEED)
論文 参考訳(メタデータ) (2023-10-16T15:01:18Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。