論文の概要: Anticipating Adversary Behavior in DevSecOps Scenarios through Large Language Models
- arxiv url: http://arxiv.org/abs/2602.14106v1
- Date: Sun, 15 Feb 2026 11:43:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.65655
- Title: Anticipating Adversary Behavior in DevSecOps Scenarios through Large Language Models
- Title(参考訳): 大規模言語モデルによるDevSecOpsシナリオの逆挙動予測
- Authors: Mario Marín Caballero, Miguel Betancourt Alonso, Daniel Díaz-López, Angel Luis Perales Gómez, Pantaleone Nespoli, Gregorio Martínez Pérez,
- Abstract要約: 本研究は,セキュリティカオスエンジニアリング(SCE)手法をLLMベースの新しいフローに統合し,攻撃防御木の作成を自動化することを提案する。
これにより、アタッカーの一歩先を進み、これまで考えられていなかった防御を実装できるようになる。
実験に関する詳細な情報は、それを複製する手順とともに、以下のリポジトリにある。
- 参考スコア(独自算出の注目度): 2.2192966937452376
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The most valuable asset of any cloud-based organization is data, which is increasingly exposed to sophisticated cyberattacks. Until recently, the implementation of security measures in DevOps environments was often considered optional by many government entities and critical national services operating in the cloud. This includes systems managing sensitive information, such as electoral processes or military operations, which have historically been valuable targets for cybercriminals. Resistance to security implementation is often driven by concerns over losing agility in software development, increasing the risk of accumulated vulnerabilities. Nowadays, patching software is no longer enough; adopting a proactive cyber defense strategy, supported by Artificial Intelligence (AI), is crucial to anticipating and mitigating threats. Thus, this work proposes integrating the Security Chaos Engineering (SCE) methodology with a new LLM-based flow to automate the creation of attack defense trees that represent adversary behavior and facilitate the construction of SCE experiments based on these graphical models, enabling teams to stay one step ahead of attackers and implement previously unconsidered defenses. Further detailed information about the experiment performed, along with the steps to replicate it, can be found in the following repository: https://github.com/mariomc14/devsecops-adversary-llm.git.
- Abstract(参考訳): クラウドベースの組織で最も価値の高い資産はデータであり、高度なサイバー攻撃にさらされている。
最近まで、DevOps環境でのセキュリティ対策の実装は、多くの政府機関や、クラウドで運用されている重要な国家サービスによってオプションと見なされていた。
これには、伝統的にサイバー犯罪者にとって貴重な標的であった選挙プロセスや軍事作戦などの機密情報を管理するシステムが含まれる。
セキュリティ実装に対する抵抗は、しばしばソフトウェア開発におけるアジリティの喪失や、蓄積された脆弱性のリスクの増加に対する懸念によって引き起こされる。
人工知能(AI)が支援する積極的なサイバー防衛戦略を採用することは、脅威を予測し緩和するために不可欠である。
そこで本研究では,SCE(Security Chaos Engineering)方法論を新たなLLMベースのフローに統合し,敵の行動を表す攻撃防御木の自動作成と,これらのグラフィカルモデルに基づくSCE実験の構築を容易にすることを提案する。
実行された実験に関する詳細な情報は、それを複製するステップとともに、以下のリポジトリで見ることができる。
関連論文リスト
- CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - Design and Development of an Intelligent LLM-based LDAP Honeypot [0.3823356975862005]
ハニーポットはその価値を証明しているが、伝統的に剛性と構成の複雑さによって制限されてきた。
提案したソリューションは、攻撃者と説得力のある対話が可能な、柔軟で現実的なツールを提供することを目的としている。
論文 参考訳(メタデータ) (2025-09-20T13:16:07Z) - Cuckoo Attack: Stealthy and Persistent Attacks Against AI-IDE [64.47951172662745]
Cuckoo Attackは、悪意のあるペイロードを構成ファイルに埋め込むことで、ステルス性と永続的なコマンド実行を実現する新しい攻撃である。
攻撃パラダイムを初期感染と持続性という2つの段階に分類する。
当社は、ベンダーが製品のセキュリティを評価するために、実行可能な7つのチェックポイントを提供しています。
論文 参考訳(メタデータ) (2025-09-19T04:10:52Z) - Searching for Privacy Risks in LLM Agents via Simulation [61.229785851581504]
本稿では,プライバシクリティカルなエージェントインタラクションのシミュレーションを通じて,攻撃と防御戦略の改善を交互に行う検索ベースのフレームワークを提案する。
攻撃戦略は、直接の要求から、不正行為や同意偽造といった高度な戦術へとエスカレートする。
発見された攻撃と防御は、さまざまなシナリオやバックボーンモデルにまたがって伝達され、プライバシーに配慮したエージェントを構築するための強力な実用性を示している。
論文 参考訳(メタデータ) (2025-08-14T17:49:09Z) - Few-Shot Learning-Based Cyber Incident Detection with Augmented Context Intelligence [2.036740192779817]
本稿では,データコンテキストインテリジェンスを改良した,数発の学習に基づく攻撃検出を提案する。
我々は,現実的な攻撃時のオペレーティングシステムの動作データを収集し,システムイベントを記述するための革新的なセミオティックス抽出手法を活用する。
論文 参考訳(メタデータ) (2025-06-19T21:53:02Z) - CyberGym: Evaluating AI Agents' Real-World Cybersecurity Capabilities at Scale [45.97598662617568]
我々は188のソフトウェアプロジェクトにわたる1,507の実際の脆弱性を特徴とする大規模ベンチマークであるCyberGymを紹介した。
我々はCyberGymが35のゼロデイ脆弱性と17の歴史的不完全なパッチを発見できることを示した。
これらの結果は、CyberGymは、サイバーセキュリティにおけるAIの進歩を測定するための堅牢なベンチマークであるだけでなく、直接的な現実世界のセキュリティ効果を生み出すためのプラットフォームでもあることを強調している。
論文 参考訳(メタデータ) (2025-06-03T07:35:14Z) - AI-based Attacker Models for Enhancing Multi-Stage Cyberattack Simulations in Smart Grids Using Co-Simulation Environments [1.4563527353943984]
スマートグリッドへの移行により、高度なサイバー脅威に対する電力システムの脆弱性が増大した。
本稿では,モジュール型サイバーアタックの実行に自律エージェントを用いたシミュレーションフレームワークを提案する。
当社のアプローチは、データ生成のための柔軟で汎用的なソースを提供し、より高速なプロトタイピングと開発リソースと時間の削減を支援します。
論文 参考訳(メタデータ) (2024-12-05T08:56:38Z) - Countering Autonomous Cyber Threats [40.00865970939829]
ファンデーションモデルは、サイバードメイン内で広く、特に二元的関心事を提示します。
近年の研究では、これらの先進的なモデルが攻撃的なサイバースペース操作を通知または独立に実行する可能性を示している。
この研究は、孤立したネットワークでマシンを妥協する能力について、最先端のいくつかのFMを評価し、そのようなAIによる攻撃を倒す防御メカニズムを調査する。
論文 参考訳(メタデータ) (2024-10-23T22:46:44Z) - The MESA Security Model 2.0: A Dynamic Framework for Mitigating Stealth Data Exfiltration [0.0]
ステルスデータ流出は、隠蔽侵入、拡張された検出不能、機密データの不正な拡散を特徴とする重要なサイバー脅威である。
以上の結果から,従来の防衛戦略はこれらの高度な脅威に対処するには不十分であることが判明した。
この複雑な風景をナビゲートする上で、潜在的な脅威を予測し、防衛を継続的に更新することが重要です。
論文 参考訳(メタデータ) (2024-05-17T16:14:45Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。