論文の概要: Training Language Model Agents to Find Vulnerabilities with CTF-Dojo
- arxiv url: http://arxiv.org/abs/2508.18370v1
- Date: Mon, 25 Aug 2025 18:02:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.539755
- Title: Training Language Model Agents to Find Vulnerabilities with CTF-Dojo
- Title(参考訳): CTF-Dojoによる脆弱性発見のための言語モデルエージェントの訓練
- Authors: Terry Yue Zhuo, Dingmin Wang, Hantian Ding, Varun Kumar, Zijian Wang,
- Abstract要約: 我々は,大規模な言語モデル(LLM)を検証可能なフィードバックでトレーニングするための,最初の大規模実行ランタイムであるCTF-Dojoを紹介する。
CTF-Dojoから,LLMベースのエージェントを486の高品質な実行検証トラジェクトリでトレーニングする。
私たちの最高の32Bモデルは31.9%のPass@1に達し、DeepSeek-V3-0324やGemini-2.5-Flashといったフロンティアモデルと競合する新しいオープンウェイトな最先端技術を確立しました。
- 参考スコア(独自算出の注目度): 17.75452358505976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated exceptional capabilities when trained within executable runtime environments, notably excelling at software engineering tasks through verified feedback loops. Yet, scalable and generalizable execution-grounded environments remain scarce, limiting progress in training more capable ML agents. We introduce CTF-Dojo, the first large-scale executable runtime tailored for training LLMs with verifiable feedback, featuring 658 fully functional Capture-The-Flag (CTF)-style challenges containerized in Docker with guaranteed reproducibility. To enable rapid scaling without manual intervention, we develop CTF-Forge, an automated pipeline that transforms publicly available artifacts into ready-to-use execution environments in minutes, eliminating weeks of expert configuration traditionally required. We trained LLM-based agents on just 486 high-quality, execution-verified trajectories from CTF-Dojo, achieving up to 11.6% absolute gains over strong baselines across three competitive benchmarks: InterCode-CTF, NYU CTF Bench, and Cybench. Our best-performing 32B model reaches 31.9% Pass@1, establishing a new open-weight state-of-the-art that rivals frontier models like DeepSeek-V3-0324 and Gemini-2.5-Flash. By framing CTF-style tasks as a benchmark for executable-agent learning, CTF-Dojo demonstrates that execution-grounded training signals are not only effective but pivotal in advancing high-performance ML agents without dependence on costly proprietary systems.
- Abstract(参考訳): 大規模言語モデル(LLM)は、実行環境内でトレーニングされた際、特に、検証されたフィードバックループを通じて、ソフトウェアエンジニアリングタスクに優れた能力を示す。
しかし、スケーラブルで一般化可能な実行環境は依然として不足しており、より有能なMLエージェントのトレーニングの進捗が制限されている。
CTF-Dojoは、検証可能なフィードバックでLLMをトレーニングするための最初の大規模実行ランタイムで、658の完全な機能を備えたCapture-The-Flag(CTF)スタイルの課題をDockerでコンテナ化して再現性を保証する。
手動で介入することなく迅速なスケーリングを可能にするために,公開可能なアーティファクトを数分で使用可能な実行環境に変換する自動パイプラインであるCTF-Forgeを開発した。
私たちはLCMベースのエージェントを、CTF-Dojoから486の高品質で実行検証された軌道でトレーニングし、3つの競合ベンチマーク(InterCode-CTF、NYU CTF Bench、Cybench)で、強力なベースラインよりも最大11.6%向上した。
私たちの最高の32Bモデルは31.9%のPass@1に達し、DeepSeek-V3-0324やGemini-2.5-Flashといったフロンティアモデルと競合する新しいオープンウェイトな最先端技術を確立しました。
CTF-Dojoは、実行可能なエージェント学習のベンチマークとしてCTFスタイルのタスクをフレーミングすることによって、実行基盤のトレーニング信号が、高価なプロプライエタリなシステムに依存することなく、高性能なMLエージェントを前進させる上で重要であることを示す。
関連論文リスト
- Cyber-Zero: Training Cybersecurity Agents without Runtime [17.75452358505976]
Cyber-Zeroは、サイバーセキュリティのLLMをトレーニングするために高品質なエージェントトラジェクトリを合成する最初のランタイムフリーフレームワークである。
ベースラインモデルよりも最大13.1%の絶対的な性能向上を実現するLCMベースのエージェントを訓練する。
当社のベストモデルであるCyber-Zero-32Bは、オープンウェイトモデルの最先端性能を確立しています。
論文 参考訳(メタデータ) (2025-07-29T18:10:37Z) - How to Train Your LLM Web Agent: A Statistical Diagnosis [102.04125085041473]
LLMウェブエージェントのポストトレーニングにおける計算割当に関する統計学的基礎研究について述べる。
提案手法では,Llama 3.1 8Bの学生を対象に,教師付き微調整(SFT)とオンライン強化学習を用いて,Llama 3.3 70Bの教師を模倣する2段階のパイプラインを用いた。
以上の結果から,SFTとオンラインRLの組み合わせは,WorkArenaとMiniWob++のいずれにおいても,単独でのアプローチよりも一貫して優れていた。
論文 参考訳(メタデータ) (2025-07-05T17:12:33Z) - Measuring and Augmenting Large Language Models for Solving Capture-the-Flag Challenges [10.476975554297095]
CTFコンペティションはサイバーセキュリティ教育とトレーニングに不可欠である。
大規模言語モデル(LLM)が進化するにつれて、CTFの課題解決を自動化する能力への関心が高まっている。
我々はCTFAgentを提案する。CTFAgentはCTF問題解決のための新しいフレームワークである。
論文 参考訳(メタデータ) (2025-06-21T08:56:20Z) - AegisLLM: Scaling Agentic Systems for Self-Reflective Defense in LLM Security [74.22452069013289]
AegisLLMは、敵の攻撃や情報漏洩に対する協調的なマルチエージェント防御である。
テスト時のエージェント推論システムのスケーリングは,モデルの有用性を損なうことなく,ロバスト性を大幅に向上させることを示す。
アンラーニングやジェイルブレイクを含む主要な脅威シナリオに対する総合的な評価は、AegisLLMの有効性を示している。
論文 参考訳(メタデータ) (2025-04-29T17:36:05Z) - SOPBench: Evaluating Language Agents at Following Standard Operating Procedures and Constraints [59.645885492637845]
SOPBenchは、各サービス固有のSOPコードプログラムを実行可能な関数の有向グラフに変換する評価パイプラインである。
提案手法では,各サービス固有のSOPコードプログラムを実行可能関数の有向グラフに変換し,自然言語SOP記述に基づいてこれらの関数を呼び出しなければならない。
我々は18の先行モデルを評価し、上位モデルでさえタスクが困難であることを示す。
論文 参考訳(メタデータ) (2025-03-11T17:53:02Z) - D-CIPHER: Dynamic Collaborative Intelligent Multi-Agent System with Planner and Heterogeneous Executors for Offensive Security [22.86304661035188]
D-CIPHERは、協調サイバーセキュリティCTF問題解決のためのマルチエージェントフレームワークである。
エージェントと異なる役割を持つエージェントを動的フィードバックループに統合し、複雑なタスクの推論を強化する。
NYU CTF Benchでは22.0%、Cybenchでは22.5%、HackTheBoxでは44.0%である。
論文 参考訳(メタデータ) (2025-02-15T23:43:18Z) - PerfCodeGen: Improving Performance of LLM Generated Code with Execution Feedback [78.89596149768458]
大規模言語モデル(LLM)は、ソフトウェア開発タスクを支援するために広く採用されている。
LLM生成コードの性能を向上させるトレーニングフリーフレームワークPerfCodeGenを提案する。
論文 参考訳(メタデータ) (2024-11-18T06:22:38Z) - RL-GPT: Integrating Reinforcement Learning and Code-as-policy [82.1804241891039]
本稿では,低速エージェントと高速エージェントからなる2レベル階層型フレームワークRL-GPTを提案する。
遅いエージェントはコーディングに適したアクションを分析し、速いエージェントはコーディングタスクを実行する。
この分解は、各エージェントが特定のタスクに効果的に集中し、パイプライン内で非常に効率的なことを証明します。
論文 参考訳(メタデータ) (2024-02-29T16:07:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。