論文の概要: Uplifted Attackers, Human Defenders: The Cyber Offense-Defense Balance for Trailing-Edge Organizations
- arxiv url: http://arxiv.org/abs/2508.15808v1
- Date: Thu, 14 Aug 2025 17:56:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-31 21:54:20.553547
- Title: Uplifted Attackers, Human Defenders: The Cyber Offense-Defense Balance for Trailing-Edge Organizations
- Title(参考訳): 強化攻撃者、人間のディフェンダー: トレーディングエッジ組織のためのサイバー攻撃とディフェンスバランス
- Authors: Benjamin Murphy, Twm Stone,
- Abstract要約: 著者: AIの進歩は、サイバーセキュリティに影響を及ぼすと広く理解されています。
ディフェンダーにとっては、AIがすべてのソフトウェアの正式な検証のようなソリューションを可能にするという議論がしばしば行われる。
AIの能力を継続的に改善することは、さらなるリスクをもたらすと我々は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advances in AI are widely understood to have implications for cybersecurity. Articles have emphasized the effect of AI on the cyber offense-defense balance, and commentators can be found arguing either that cyber will privilege attackers or defenders. For defenders, arguments are often made that AI will enable solutions like formal verification of all software--and for some well-equipped companies, this may be true. This conversation, however, does not match the reality for most companies. "Trailing-edge organizations," as we term them, rely heavily on legacy software, poorly staff security roles, and struggle to implement best practices like rapid deployment of security patches. These decisions may be the result of corporate inertia, but may also be the result of a seemingly-rational calculation that attackers may not bother targeting a firm due to lack of economic incentives, and as a result, underinvestment in defense will not be punished. This approach to security may have been sufficient prior to the development of AI systems, but it is unlikely to remain viable in the near future. We argue that continuing improvements in AI's capabilities poses additional risks on two fronts: First, increased usage of AI will alter the economics of the marginal cyberattack and expose these trailing-edge organizations to more attackers, more frequently. Second, AI's advances will enable attackers to develop exploits and launch attacks earlier than they can today--meaning that it is insufficient for these companies to attain parity with today's leading defenders, but must instead aim for faster remediation timelines and more resilient software. The situation today portends a dramatically increased number of attacks in the near future. Moving forward, we offer a range of solutions for both organizations and governments to improve the defensive posture of firms which lag behind their peers today.
- Abstract(参考訳): AIの進歩は、サイバーセキュリティに影響を及ぼすと広く理解されている。
記事は、AIがサイバー犯罪と防衛のバランスに与える影響を強調しており、コメンテーターはサイバーが攻撃者または被告を特権化すると主張することができる。
被告にとっては、AIがすべてのソフトウェアを公式に検証するなどのソリューションを可能にするという主張がしばしばなされる。
しかし、この会話はほとんどの企業にとって現実とは一致しない。
いわゆる“Trailing-edge Organization”は,レガシソフトウェアに大きく依存すると同時に,スタッフのセキュリティロールの貧弱さ,セキュリティパッチの迅速なデプロイといったベストプラクティスの実施に苦慮しています。
これらの決定は、企業慣性の結果かもしれないが、攻撃者は経済的なインセンティブの欠如のために会社を標的にしないという、一見合理的な計算の結果であり、その結果、防衛の過小評価は罰されない。
セキュリティに対するこのアプローチは、AIシステムの開発に先立って十分なものだったかも知れないが、近い将来に有効になる可能性は低い。
第一に、AIの使用の増加は、限界サイバー攻撃の経済性を変え、これらの後続の組織をより多くの攻撃者に公開します。
第2に、AIの進歩により、攻撃者は、今日よりも早くエクスプロイトを開発し、攻撃を開始することができる。つまり、これらの企業が今日の主要なディフェンダーと同等になるには不十分だが、より高速な修正タイムラインとより回復力のあるソフトウェアを目標にする必要がある。
今日の状況は、近い将来、爆発的な攻撃の増加を後押ししている。
今後は、現在仲間に遅れている企業の防衛姿勢を改善するための、組織と政府の両方に、さまざまなソリューションを提供していく。
関連論文リスト
- Designing AI-Enabled Countermeasures to Cognitive Warfare [0.0]
ソーシャルメディアプラットフォーム上での外国情報操作は、民主主義社会に重大なリスクをもたらす。
人工知能(AI)の台頭により、この脅威は強化され、潜在的に圧倒的な人間の防御者となる可能性がある。
本稿では,認知戦争に対するAI対応対策の可能性を提案する。
論文 参考訳(メタデータ) (2025-04-14T11:36:03Z) - A Framework for Evaluating Emerging Cyberattack Capabilities of AI [11.595840449117052]
本研究は,(1)エンド・ツー・エンド・エンド・アタック・チェーンの検証,(2)AI脅威評価のギャップの同定,(3)目標とする緩和の優先順位付けを支援する,という制約に対処する新たな評価フレームワークを導入する。
我々は、GoogleのThreat Intelligence Groupがカタログ化したサイバーインシデントにAIが関与した12,000件以上の実世界の事例を分析し、7つの代表的なアタックチェーンのアーキタイプをキュレートした。
我々は、特定の攻撃段階にわたって攻撃能力を増幅するAIの可能性について報告し、防御の優先順位付けを推奨する。
論文 参考訳(メタデータ) (2025-03-14T23:05:02Z) - Superintelligence Strategy: Expert Version [64.7113737051525]
AI開発を不安定にすることで、大国間の対立の可能性が高まる可能性がある。
スーパーインテリジェンス — ほぼすべての認知タスクにおいて、AIが人間よりもはるかに優れている — が、AI研究者によって期待されている。
本稿では,相互保証型AI誤動作の概念を紹介する。
論文 参考訳(メタデータ) (2025-03-07T17:53:24Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Towards Type Agnostic Cyber Defense Agents [0.0]
サイバー脅威は拡大を続けており、労働力不足とサイバーセキュリティのスキルギャップにつながっている。
多くのサイバーセキュリティ製品ベンダーやセキュリティ組織は、彼らの防衛を強化するために人工知能に目を向けてきた。
この研究は、サイバー防衛の自動化に対する一つのアプローチにおいて、攻撃者や防衛者を特徴づける方法について考察する。
論文 参考訳(メタデータ) (2024-12-02T14:32:18Z) - Countering Autonomous Cyber Threats [40.00865970939829]
ファンデーションモデルは、サイバードメイン内で広く、特に二元的関心事を提示します。
近年の研究では、これらの先進的なモデルが攻撃的なサイバースペース操作を通知または独立に実行する可能性を示している。
この研究は、孤立したネットワークでマシンを妥協する能力について、最先端のいくつかのFMを評価し、そのようなAIによる攻撃を倒す防御メカニズムを調査する。
論文 参考訳(メタデータ) (2024-10-23T22:46:44Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。