論文の概要: CAI: An Open, Bug Bounty-Ready Cybersecurity AI
- arxiv url: http://arxiv.org/abs/2504.06017v1
- Date: Tue, 08 Apr 2025 13:22:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:27:56.555514
- Title: CAI: An Open, Bug Bounty-Ready Cybersecurity AI
- Title(参考訳): CAI:オープンでバグ報奨金入りのサイバーセキュリティAI
- Authors: Víctor Mayoral-Vilches, Luis Javier Navarrete-Lozano, María Sanz-Gómez, Lidia Salas Espejo, Martiño Crespo-Álvarez, Francisco Oca-Gonzalez, Francesco Balassone, Alfonso Glera-Picón, Unai Ayucar-Carbajo, Endika Gil-Uriarte,
- Abstract要約: Cybersecurity AI(CAI)は、特殊なAIエージェントを通じて高度なセキュリティテストを民主化する、オープンソースのフレームワークである。
CAI は CTF ベンチマークで常に最先端の結果を上回っていることを示す。
CAIはスペインで30位、Hack The Boxで500位に達した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: By 2028 most cybersecurity actions will be autonomous, with humans teleoperating. We present the first classification of autonomy levels in cybersecurity and introduce Cybersecurity AI (CAI), an open-source framework that democratizes advanced security testing through specialized AI agents. Through rigorous empirical evaluation, we demonstrate that CAI consistently outperforms state-of-the-art results in CTF benchmarks, solving challenges across diverse categories with significantly greater efficiency -up to 3,600x faster than humans in specific tasks and averaging 11x faster overall. CAI achieved first place among AI teams and secured a top-20 position worldwide in the "AI vs Human" CTF live Challenge, earning a monetary reward of $750. Based on our results, we argue against LLM-vendor claims about limited security capabilities. Beyond cybersecurity competitions, CAI demonstrates real-world effectiveness, reaching top-30 in Spain and top-500 worldwide on Hack The Box within a week, while dramatically reducing security testing costs by an average of 156x. Our framework transcends theoretical benchmarks by enabling non-professionals to discover significant security bugs (CVSS 4.3-7.5) at rates comparable to experts during bug bounty exercises. By combining modular agent design with seamless tool integration and human oversight (HITL), CAI addresses critical market gaps, offering organizations of all sizes access to AI-powered bug bounty security testing previously available only to well-resourced firms -thereby challenging the oligopolistic ecosystem currently dominated by major bug bounty platforms.
- Abstract(参考訳): 2028年までに、ほとんどのサイバーセキュリティアクションは自律的になり、人間が遠隔操作される。
我々は、サイバーセキュリティにおける最初の自律性レベルを分類し、特殊なAIエージェントを通じて高度なセキュリティテストを民主化するオープンソースのフレームワークであるCybersecurity AI(CAI)を紹介する。
厳密な経験的評価を通じて、CAIはCTFベンチマークの最先端の結果を一貫して上回り、さまざまなカテゴリにわたる課題を、非常に高い効率で解決し、特定のタスクにおいて人間よりも最大3,600倍、全体的な平均11倍のスピードで解決することを示した。
CAIはAIチームの中で第1位を獲得し、"AI vs Human" CTF Live Challengeで世界トップ20にランクインし、750ドルの賞金を獲得した。
この結果に基づき, LLMベンダーは, 限られたセキュリティ機能について主張する。
サイバーセキュリティの競争以外にも、CAIは実際の効果を実証し、1週間以内にスペインで30位、Hack The Boxで500位に達した。
本フレームワークは,非専門職者が有意義なセキュリティバグ(CVSS 4.3-7.5)を,バグ報奨演習において専門家に匹敵する速度で発見できるようにすることで,理論的ベンチマークを超越する。
モジュラーエージェント設計とシームレスなツール統合とヒューマン監視(HITL)を組み合わせることで、CAIは重要な市場ギャップに対処し、すべての規模の組織にAIを使ったバグ報奨金セキュリティテストへのアクセスを提供する。
関連論文リスト
- Quantifying Security Vulnerabilities: A Metric-Driven Security Analysis of Gaps in Current AI Standards [5.388550452190688]
本稿では、NIST AI RMF 1.0、英国のAIおよびデータ保護リスクツールキット、EUのALTAIの3つの主要なAIガバナンス標準におけるセキュリティリスクの監査と定量化を行う。
新しいリスク評価手法を用いて、リスク重大度指数(RSI)、アタックポテンシャル指数(AVPI)、コンプライアンス・セキュリティギャップパーセンテージ(CSGP)、ルート原因脆弱性スコア(RCVS)の4つの主要な指標を開発する。
論文 参考訳(メタデータ) (2025-02-12T17:57:54Z) - AI Cyber Risk Benchmark: Automated Exploitation Capabilities [0.24578723416255752]
自動ソフトウェアエクスプロイトにおけるAIモデルの能力とリスクを評価するための新しいベンチマークを導入する。
OpenAIのo1-previewやo1-mini、AnthropicのClaude-3.5-sonnet-20241022、Claude-3.5-sonnet-20240620など、主要な言語モデルの評価を行った。
論文 参考訳(メタデータ) (2024-10-29T10:57:11Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - A Red Teaming Framework for Securing AI in Maritime Autonomous Systems [0.0]
海上自律システムのAIセキュリティを評価するための,最初のレッドチームフレームワークを提案する。
このフレームワークはマルチパートのチェックリストであり、異なるシステムや要件に合わせて調整できる。
私たちはこのフレームワークが、現実の海上自律システムAI内の多数の脆弱性を明らかにするために、レッドチームにとって非常に効果的であることを実証しています。
論文 参考訳(メタデータ) (2023-12-08T14:59:07Z) - Smart Contract and DeFi Security Tools: Do They Meet the Needs of
Practitioners? [10.771021805354911]
スマートコントラクトを狙った攻撃は増加しており、推定645億ドルの損失を生んでいる。
私たちは、目立った攻撃につながる可能性のある脆弱性を特定するために、自動セキュリティツールの有効性に光を当てることを目指しています。
このツールは、われわれのデータセットにおける攻撃のわずか8%を防げた可能性があり、23億ドルの損失のうち1億4900万ドルに相当する。
論文 参考訳(メタデータ) (2023-04-06T10:27:19Z) - Artificial Intelligence Security Competition (AISC) [52.20676747225118]
人工知能セキュリティコンペティション(AISC)は、Zhonguancun Laboratory、China Industrial Control Systems Cyber Emergency Response Team、Institute for Artificial Intelligence、清華大学、RealAIによって組織された。
コンテストはディープフェイクセキュリティコンペティション、自律運転セキュリティコンペティション、顔認識セキュリティコンペティションの3つのトラックで構成されている。
本報告では,これらの3トラックの競合ルールと,各トラックの上位チームのソリューションについて紹介する。
論文 参考訳(メタデータ) (2022-12-07T02:45:27Z) - SoK: On the Semantic AI Security in Autonomous Driving [42.15658768948801]
自律運転システムは、安全と運転判断の正しさをAIコンポーネントに依存している。
このようなAIコンポーネントレベルの脆弱性がシステムレベルでセマンティックに影響を及ぼすためには、非自明なセマンティックギャップに対処する必要がある。
本稿では,このような研究領域を汎用AIセキュリティとは対照的にセマンティックAIセキュリティと定義する。
論文 参考訳(メタデータ) (2022-03-10T12:00:34Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Adversarial Attacks on ML Defense Models Competition [82.37504118766452]
清華大学のTSAILグループとAlibaba Securityグループがこの競争を組織した。
この競争の目的は、敵の堅牢性を評価するために、新しい攻撃アルゴリズムを動機付けることである。
論文 参考訳(メタデータ) (2021-10-15T12:12:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。