論文の概要: SoK: DARPA's AI Cyber Challenge (AIxCC): Competition Design, Architectures, and Lessons Learned
- arxiv url: http://arxiv.org/abs/2602.07666v1
- Date: Sat, 07 Feb 2026 19:21:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.74896
- Title: SoK: DARPA's AI Cyber Challenge (AIxCC): Competition Design, Architectures, and Lessons Learned
- Title(参考訳): SoK:DARPAのAIサイバーチャレンジ(AIxCC) - 競争設計、アーキテクチャ、教訓を学ぶ
- Authors: Cen Zhang, Younggi Park, Fabian Fleischer, Yu-Fu Fu, Jiho Kim, Dongkwan Kim, Youngjoon Kim, Qingxiao Xu, Andrew Chin, Ze Sheng, Hanqing Zhao, Brian J. Lee, Joshua Wang, Michael Pelican, David J. Musliner, Jeff Huang, Jon Silliman, Mikel Mcdaniel, Jefferson Casavant, Isaac Goldthwaite, Nicholas Vidovich, Matthew Lehman, Taesoo Kim,
- Abstract要約: 設計文書、ソースコード、実行トレース、主催者や競合チームとの議論に基づいて、コンペティションの構造と重要な設計決定について検討する。
我々の分析では、CRSのパフォーマンスを本当に推進し、チームによって達成された真の技術的進歩を特定し、将来の研究のためにオープンな制限を公開する要因を明らかにしています。
- 参考スコア(独自算出の注目度): 15.167322082236907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: DARPA's AI Cyber Challenge (AIxCC, 2023--2025) is the largest competition to date for building fully autonomous cyber reasoning systems (CRSs) that leverage recent advances in AI -- particularly large language models (LLMs) -- to discover and remediate vulnerabilities in real-world open-source software. This paper presents the first systematic analysis of AIxCC. Drawing on design documents, source code, execution traces, and discussions with organizers and competing teams, we examine the competition's structure and key design decisions, characterize the architectural approaches of finalist CRSs, and analyze competition results beyond the final scoreboard. Our analysis reveals the factors that truly drove CRS performance, identifies genuine technical advances achieved by teams, and exposes limitations that remain open for future research. We conclude with lessons for organizing future competitions and broader insights toward deploying autonomous CRSs in practice.
- Abstract(参考訳): DARPAのAI Cyber Challenge(AIxCC, 2023-2025)は、AIの最近の進歩、特に大規模言語モデル(LLM)を活用して、現実世界のオープンソースソフトウェアにおける脆弱性を発見し、修正する完全自律型サイバー推論システム(CRS)を構築するための、これまでで最大の競争である。
本稿では,AIxCCの最初の系統解析について述べる。
設計文書、ソースコード、実行トレース、主催者や競合チームとの議論に基づいて、コンペティションの構造と重要な設計決定を調査し、ファイナリストCRSのアーキテクチャ的アプローチを特徴づけ、ファイナリストスコアボードを超えて競合結果を分析する。
我々の分析では、CRSのパフォーマンスを本当に推進し、チームによって達成された真の技術的進歩を特定し、将来の研究のためにオープンな制限を公開する要因を明らかにしています。
我々は、将来の競争を組織化するための教訓と、実際に自律型CRSを展開するための幅広い洞察で締めくくります。
関連論文リスト
- Advances and Frontiers of LLM-based Issue Resolution in Software Engineering: A Comprehensive Survey [59.3507264893654]
課題解決は、現実世界の開発に不可欠な複雑なソフトウェアエンジニアリングタスクです。
SWE-benchのようなベンチマークでは、このタスクは大規模言語モデルでは極めて困難であることが判明した。
本稿では,この新興領域を体系的に調査する。
論文 参考訳(メタデータ) (2026-01-15T18:55:03Z) - Let the Barbarians In: How AI Can Accelerate Systems Performance Research [80.43506848683633]
我々は、この繰り返しサイクルを、AI駆動システム研究の生成、評価、洗練のサイクルと呼ぶ。
我々はADRSが生成するソリューションが人間の最先端の設計に適合し、さらに優れることを示した。
論文 参考訳(メタデータ) (2025-12-16T18:51:23Z) - ATLANTIS: AI-driven Threat Localization, Analysis, and Triage Intelligence System [24.15037724921127]
ATLANTISは、チームアトランタが開発したサイバー推論システムで、DARPAのAIサイバーチャレンジ(AIxCC)の最終コンペで1位を獲得した。
ATLANTISの背後にある設計哲学、アーキテクチャ決定、実装戦略について詳述する。
プログラム分析が現代のAIに合うとき、自動セキュリティの境界を押して学んだ教訓を共有します。
論文 参考訳(メタデータ) (2025-09-18T03:46:18Z) - Bridging LLMs and Symbolic Reasoning in Educational QA Systems: Insights from the XAI Challenge at IJCNN 2025 [1.0166217771455643]
本稿では,Ho Chi Minh City University of Technology (HCMUT) と International Workshop on Trustworthiness and Reliability in Neurosymbolic AI (TRNS-AI) が共同で主催するハッカソン型コンペであるXAI Challenge 2025を総合的に分析する。
この課題は、学生が大学政策に関する質問に回答し、明確な論理に基づく自然言語の説明を生成できる質問応答システム(QA)の構築を参加者に委ねた。
論文 参考訳(メタデータ) (2025-08-02T08:46:06Z) - A Framework for Evaluating Emerging Cyberattack Capabilities of AI [11.595840449117052]
本研究は,(1)エンド・ツー・エンド・エンド・アタック・チェーンの検証,(2)AI脅威評価のギャップの同定,(3)目標とする緩和の優先順位付けを支援する,という制約に対処する新たな評価フレームワークを導入する。
我々は、GoogleのThreat Intelligence Groupがカタログ化したサイバーインシデントにAIが関与した12,000件以上の実世界の事例を分析し、7つの代表的なアタックチェーンのアーキタイプをキュレートした。
我々は、特定の攻撃段階にわたって攻撃能力を増幅するAIの可能性について報告し、防御の優先順位付けを推奨する。
論文 参考訳(メタデータ) (2025-03-14T23:05:02Z) - Cyber Deception: State of the art, Trends and Open challenges [0.5735035463793009]
本稿では,サイバー認知のための包括的分類分類法(CYDEC)について述べる。
CYDECを生成するために使用されるさまざまなフレームワークについてレビューし、より包括的なものを提示している。
CYDECを用いた文献における既存のソリューションは、人工知能(AI)もAIも使わずに研究され、比較される。
論文 参考訳(メタデータ) (2024-09-11T11:31:34Z) - Coordinated Flaw Disclosure for AI: Beyond Security Vulnerabilities [1.3225694028747144]
本稿では,機械学習(ML)問題の複雑度に合わせたコーディネート・フレーバー開示フレームワークを提案する。
本フレームワークは,拡張モデルカード,ダイナミックスコープ拡張,独立適応パネル,自動検証プロセスなどのイノベーションを導入している。
CFDはAIシステムに対する公的な信頼を著しく向上させる可能性があると我々は主張する。
論文 参考訳(メタデータ) (2024-02-10T20:39:04Z) - Benchmarking Robustness and Generalization in Multi-Agent Systems: A
Case Study on Neural MMO [50.58083807719749]
IJCAI 2022で開催されている第2回Neural MMOチャレンジの結果を報告する。
この競合はマルチエージェントシステムの堅牢性と一般化をターゲットにしている。
環境ラッパー、ベースライン、可視化ツール、そしてさらなる研究のための選択されたポリシーを含むベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2023-08-30T07:16:11Z) - Artificial Intelligence Security Competition (AISC) [52.20676747225118]
人工知能セキュリティコンペティション(AISC)は、Zhonguancun Laboratory、China Industrial Control Systems Cyber Emergency Response Team、Institute for Artificial Intelligence、清華大学、RealAIによって組織された。
コンテストはディープフェイクセキュリティコンペティション、自律運転セキュリティコンペティション、顔認識セキュリティコンペティションの3つのトラックで構成されている。
本報告では,これらの3トラックの競合ルールと,各トラックの上位チームのソリューションについて紹介する。
論文 参考訳(メタデータ) (2022-12-07T02:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。