論文の概要: Cybersecurity AI: A Game-Theoretic AI for Guiding Attack and Defense
- arxiv url: http://arxiv.org/abs/2601.05887v1
- Date: Fri, 09 Jan 2026 16:06:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:50.023544
- Title: Cybersecurity AI: A Game-Theoretic AI for Guiding Attack and Defense
- Title(参考訳): サイバーセキュリティAI:攻撃と防衛を誘導するゲーム理論AI
- Authors: Víctor Mayoral-Vilches, María Sanz-Gómez, Francesco Balassone, Stefan Rass, Lidia Salas-Espejo, Benjamin Jablonski, Luis Javier Navarrete-Lozano, Maite del Mundo de Torres, Cristóbal R. J. Veas Chavez,
- Abstract要約: Generative Cut-the-Rope (G-CTR) はエージェントのコンテキストから攻撃グラフを抽出するゲーム理論誘導層である。
5つの実世界のエクササイズでは、G-CTRは専門家グラフ構造の70~90%と一致し、60~245倍高速で、手作業による分析より140倍以上安い。
- 参考スコア(独自算出の注目度): 1.0933254855925085
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: AI-driven penetration testing now executes thousands of actions per hour but still lacks the strategic intuition humans apply in competitive security. To build cybersecurity superintelligence --Cybersecurity AI exceeding best human capability-such strategic intuition must be embedded into agentic reasoning processes. We present Generative Cut-the-Rope (G-CTR), a game-theoretic guidance layer that extracts attack graphs from agent's context, computes Nash equilibria with effort-aware scoring, and feeds a concise digest back into the LLM loop \emph{guiding} the agent's actions. Across five real-world exercises, G-CTR matches 70--90% of expert graph structure while running 60--245x faster and over 140x cheaper than manual analysis. In a 44-run cyber-range, adding the digest lifts success from 20.0% to 42.9%, cuts cost-per-success by 2.7x, and reduces behavioral variance by 5.2x. In Attack-and-Defense exercises, a shared digest produces the Purple agent, winning roughly 2:1 over the LLM-only baseline and 3.7:1 over independently guided teams. This closed-loop guidance is what produces the breakthrough: it reduces ambiguity, collapses the LLM's search space, suppresses hallucinations, and keeps the model anchored to the most relevant parts of the problem, yielding large gains in success rate, consistency, and reliability.
- Abstract(参考訳): AI駆動の浸透テストは、現在1時間に数千のアクションを実行するが、人間が競合するセキュリティに適用する戦略的直感はいまだに欠けている。
サイバーセキュリティの超知能を構築するには、最高の人間の能力を超えるサイバーセキュリティAIをエージェント的推論プロセスに組み込まなければならない。
本稿では,エージェントのコンテキストから攻撃グラフを抽出し,努力を意識してナッシュ均衡を計算し,LLMループに簡潔なダイジェストを投入するゲーム理論誘導層であるGenerative Cut-the-Rope(G-CTR)を提案する。
5つの実世界のエクササイズの中で、G-CTRは専門家グラフ構造の70~90%と一致し、60~245倍高速で、手作業による分析より140倍以上安い。
44回のサイバーレンジでは、ダイジェストが20.0%から42.9%に上昇し、コストを2.7倍に削減し、行動のばらつきを5.2倍に減らす。
アタック・アンド・ディフェンスの練習では、共有ダイジェストがパープルエージェントを生成し、LSMのみのベースラインで約2:1、独立したガイド付きチームで3.7:1で勝利する。
曖昧さを減らし、LLMの検索空間を崩壊させ、幻覚を抑え、問題の最も関連する部分にモデルを固定し、成功率、一貫性、信頼性を大きく向上させる。
関連論文リスト
- AI Security Beyond Core Domains: Resume Screening as a Case Study of Adversarial Vulnerabilities in Specialized LLM Applications [71.27518152526686]
大きな言語モデル(LLM)はテキストの理解と生成に優れており、コードレビューやコンテンツモデレーションといった自動タスクに最適である。
LLMは履歴書やコードなどの入力データに隠された「逆命令」で操作でき、意図したタスクから逸脱する。
本稿では,特定の攻撃タイプに対して80%以上の攻撃成功率を示すとともに,この脆弱性を再開スクリーニングで評価するためのベンチマークを提案する。
論文 参考訳(メタデータ) (2025-12-23T08:42:09Z) - Cybersecurity AI: The World's Top AI Agent for Security Capture-the-Flag (CTF) [0.3440866754277105]
2025年、サイバーセキュリティAI(CAI)は、世界で最も名高いハッキング競技を組織的に征服した。
本稿では,2025 CTF回路におけるAI能力の包括的証拠を示す。
セキュリティコミュニティは、Jeopardyスタイルのコンテストからアタック・アンド・ディフェンスのフォーマットに緊急に移行する必要がある、と論じている。
論文 参考訳(メタデータ) (2025-12-02T11:15:44Z) - Cybersecurity AI Benchmark (CAIBench): A Meta-Benchmark for Evaluating Cybersecurity AI Agents [0.36134114973155557]
既存のベンチマークは、統合されたパフォーマンスではなく、独立したスキルを評価する。
モジュール型メタベンチマークフレームワークであるCAIBench(Cybersecurity AI Benchmark)を紹介する。
適切なマッチは2.6$times$ variance in Attack and Defense CTFsまで改善される。
論文 参考訳(メタデータ) (2025-10-28T11:36:20Z) - Shoot First, Ask Questions Later? Building Rational Agents that Explore and Act Like People [81.63702981397408]
限られたリソースを前提として、言語モデル(LM)に基づいたエージェントは、どの程度合理的に行動するのか?
エージェント情報探索をベンチマークし,強化する手法を開発し,人間の行動から洞察を抽出する。
Spotterエージェントでは、LMのみのベースラインよりも14.7%の精度で精度を向上し、Captainエージェントでは、期待情報ゲイン(EIG)を0.227ビット(達成可能なノイズ天井の94.2%)まで引き上げる。
論文 参考訳(メタデータ) (2025-10-23T17:57:28Z) - Cybersecurity AI: Evaluating Agentic Cybersecurity in Attack/Defense CTFs [3.6968315805917897]
我々は、サイバーセキュリティにおける攻撃や防御にAIシステムがより効果的であるかどうかを評価する。
統計分析によると、防御剤は54.3%の制約のないパッチング成功を達成している。
発見は、ディフェンダーがオープンソースのCybersecurity AIフレームワークを採用する緊急性を強調している。
論文 参考訳(メタデータ) (2025-10-20T13:21:09Z) - Security Challenges in AI Agent Deployment: Insights from a Large Scale Public Competition [101.86739402748995]
44の現実的なデプロイメントシナリオを対象とした,22のフロンティアAIエージェントを対象にしています。
Agent Red Teamingベンチマークを構築し、19の最先端モデルで評価します。
私たちの発見は、今日のAIエージェントの重要かつ永続的な脆弱性を浮き彫りにしたものです。
論文 参考訳(メタデータ) (2025-07-28T05:13:04Z) - Chasing Moving Targets with Online Self-Play Reinforcement Learning for Safer Language Models [64.47869632167284]
従来の言語モデル(LM)の安全性アライメントは、リアクティブで非結合な手順に依存している。
このシーケンシャルなアプローチはミスマッチを生み出し、攻撃者は時代遅れの防御に過度に適合する一方、守備側は出現する脅威に常に遅れをとどめている。
我々は,攻撃者と防御エージェントが継続的なインタラクションを通じて共進化するオンラインセルフプレイ強化学習アルゴリズムであるSelf-RedTeamを提案する。
論文 参考訳(メタデータ) (2025-06-09T06:35:12Z) - Evaluating AI cyber capabilities with crowdsourced elicitation [0.0]
我々は、新興AI能力に対する時間的かつ費用対効果の高い状況認識を維持するための実践的なメカニズムとして、Elicitation bountiesを提案する。
METRの手法を適用すると、AIエージェントは中央のヒトCTF参加者から1時間以下の労力を必要とするサイバー課題を確実に解決できることがわかった。
論文 参考訳(メタデータ) (2025-05-26T12:40:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。