論文の概要: STAF: Leveraging LLMs for Automated Attack Tree-Based Security Test Generation
- arxiv url: http://arxiv.org/abs/2509.20190v1
- Date: Wed, 24 Sep 2025 14:46:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.860063
- Title: STAF: Leveraging LLMs for Automated Attack Tree-Based Security Test Generation
- Title(参考訳): STAF: 自動攻撃ツリーベースセキュリティテスト生成のためのLLMの活用
- Authors: Tanmay Khule, Stefan Marksteiner, Jose Alguindigue, Hannes Fuchs, Sebastian Fischmeister, Apurva Narayan,
- Abstract要約: 本稿では,セキュリティテストケースの自動生成のための新しいアプローチであるSTAF(Security Test Automation Framework)を紹介する。
自動テストフレームワークとの統合とともに、賢明で実行可能な自動車セキュリティテストスイートを生成するために必要な要素とプロセスを示します。
- 参考スコア(独自算出の注目度): 3.283937504286784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In modern automotive development, security testing is critical for safeguarding systems against increasingly advanced threats. Attack trees are widely used to systematically represent potential attack vectors, but generating comprehensive test cases from these trees remains a labor-intensive, error-prone task that has seen limited automation in the context of testing vehicular systems. This paper introduces STAF (Security Test Automation Framework), a novel approach to automating security test case generation. Leveraging Large Language Models (LLMs) and a four-step self-corrective Retrieval-Augmented Generation (RAG) framework, STAF automates the generation of executable security test cases from attack trees, providing an end-to-end solution that encompasses the entire attack surface. We particularly show the elements and processes needed to provide an LLM to actually produce sensible and executable automotive security test suites, along with the integration with an automated testing framework. We further compare our tailored approach with general purpose (vanilla) LLMs and the performance of different LLMs (namely GPT-4.1 and DeepSeek) using our approach. We also demonstrate the method of our operation step-by-step in a concrete case study. Our results show significant improvements in efficiency, accuracy, scalability, and easy integration in any workflow, marking a substantial advancement in automating automotive security testing methodologies. Using TARAs as an input for verfication tests, we create synergies by connecting two vital elements of a secure automotive development process.
- Abstract(参考訳): 現代の自動車開発において、セキュリティテストは、ますます進んだ脅威に対してシステムを保護するために重要である。
攻撃木は、潜在的な攻撃ベクトルを体系的に表現するために広く使用されているが、これらの木から包括的なテストケースを生成することは、車両システムのテストの文脈において、自動化が制限された労働集約的でエラーを起こしやすいタスクである。
本稿では,セキュリティテストケースの自動生成のための新しいアプローチであるSTAF(Security Test Automation Framework)を紹介する。
大規模言語モデル(LLM)と4段階の自己修正型検索・拡張生成(RAG)フレームワークを利用することで、STAFは攻撃木から実行可能なセキュリティテストケースの生成を自動化し、攻撃面全体を包含するエンドツーエンドのソリューションを提供する。
特に、自動テストフレームワークとの統合とともに、実用的な自動車セキュリティテストスイートを実際に作成するためにLLMを提供するために必要な要素とプロセスを示します。
さらに,本手法を汎用LLM(vanilla LLM)と異なるLCM(GPT-4.1とDeepSeek)の性能と比較した。
また,具体的ケーススタディにおいて,手術の手順を段階的に示す。
この結果から, 効率性, 精度, スケーラビリティ, ワークフローへの容易な統合が著しく向上し, 自動車のセキュリティテスト手法の自動化が大幅に進歩したことが示唆された。
検証テストの入力としてTARAを用いて,セキュアな自動車開発プロセスの2つの重要な要素を接続することでシナジーを創出する。
関連論文リスト
- Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - SafeAgent: Safeguarding LLM Agents via an Automated Risk Simulator [77.86600052899156]
LLM(Large Language Model)ベースのエージェントは、現実のアプリケーションにますますデプロイされる。
完全自動合成データ生成によるエージェント安全性を体系的に向上する最初のフレームワークであるAutoSafeを提案する。
AutoSafeは安全性のスコアを平均で45%向上させ、現実世界のタスクでは28.91%の改善を実現している。
論文 参考訳(メタデータ) (2025-05-23T10:56:06Z) - PentestAgent: Incorporating LLM Agents to Automated Penetration Testing [6.815381197173165]
手動浸透試験は時間と費用がかかる。
大規模言語モデル(LLM)の最近の進歩は、浸透テストを強化する新たな機会を提供する。
我々は,新しいLLMベースの自動浸透試験フレームワークであるPentestAgentを提案する。
論文 参考訳(メタデータ) (2024-11-07T21:10:39Z) - AutoPT: How Far Are We from the End2End Automated Web Penetration Testing? [54.65079443902714]
LLMによって駆動されるPSMの原理に基づく自動浸透試験エージェントであるAutoPTを紹介する。
以上の結果から, AutoPT は GPT-4o ミニモデル上でのベースラインフレームワーク ReAct よりも優れていた。
論文 参考訳(メタデータ) (2024-11-02T13:24:30Z) - Hacking, The Lazy Way: LLM Augmented Pentesting [0.0]
我々は、"Pentest Copilot"というツールを使って、"LLM Augmented Pentesting"という新しい概念を紹介した。
提案手法は, LLMを用いて特定のサブタスクを自動化することにより, 浸透試験における自動化に対する従来の抵抗を克服することに焦点を当てる。
Pentest Copilotは、テストツールの利用、アウトプットの解釈、フォローアップアクションの提案など、タスクの卓越した熟練度を示す。
論文 参考訳(メタデータ) (2024-09-14T17:40:35Z) - TaskBench: Benchmarking Large Language Models for Task Automation [82.2932794189585]
タスク自動化における大規模言語モデル(LLM)の機能を評価するためのフレームワークであるTaskBenchを紹介する。
具体的には、タスクの分解、ツールの選択、パラメータ予測を評価する。
提案手法は, 自動構築と厳密な人的検証を組み合わせることで, 人的評価との整合性を確保する。
論文 参考訳(メタデータ) (2023-11-30T18:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。