論文の概要: Asymmetry by Design: Boosting Cyber Defenders with Differential Access to AI
- arxiv url: http://arxiv.org/abs/2506.02035v1
- Date: Sat, 31 May 2025 00:20:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.796334
- Title: Asymmetry by Design: Boosting Cyber Defenders with Differential Access to AI
- Title(参考訳): デザインによる非対称性:AIに異なるアクセスでサイバーディフェンダーを強化
- Authors: Shaun Ee, Chris Covino, Cara Labrador, Christina Krawec, Jam Kraprayoon, Joe O'Brien,
- Abstract要約: 識別アクセス(differential access)とは、AI能力へのアクセスを形作ることにより、サイバーセキュリティのバランスを防御に傾ける戦略である。
このレポートは、フロンティアAI開発者が3つの差分アクセスアプローチのうちの1つを選択し、実装するのを助けるプロセスを提供する。
本稿では,ディフェンダーが参照する4つの例を示し,ディペンダーアクセスが様々な能力とディフェンダーレベルに対してどのように価値を提供するかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI-enabled cyber capabilities become more advanced, we propose "differential access" as a strategy to tilt the cybersecurity balance toward defense by shaping access to these capabilities. We introduce three possible approaches that form a continuum, becoming progressively more restrictive for higher-risk capabilities: Promote Access, Manage Access, and Deny by Default. However, a key principle across all approaches is the need to prioritize defender access, even in the most restrictive scenarios, so that defenders can prepare for adversaries gaining access to similar capabilities. This report provides a process to help frontier AI developers choose and implement one of the three differential access approaches, including considerations based on a model's cyber capabilities, a defender's maturity and role, and strategic and technical implementation details. We also present four example schemes for defenders to reference, demonstrating how differential access provides value across various capability and defender levels, and suggest directions for further research.
- Abstract(参考訳): AI対応のサイバー能力がさらに進歩するにつれて、これらの機能へのアクセスを形作ることにより、サイバーセキュリティのバランスを防御に傾ける戦略として、"差分アクセス"を提案する。
我々は、高リスクな機能に対して徐々に制限される、連続体を形成する3つの可能なアプローチを紹介します。
しかしながら、すべてのアプローチで重要な原則は、最も制限されたシナリオであっても、ディフェンダーアクセスを優先する必要があることである。
このレポートは、フロンティアAI開発者がモデルのサイバー能力、ディフェンダーの成熟度と役割、戦略的および技術的実装の詳細に基づく考慮を含む、3つの異なるアクセスアプローチのうちの1つを選択し、実装するのを助けるプロセスを提供する。
また、ディフェンダーが参照する4つの例を示し、ディペンダーアクセスが様々な能力とディフェンダーレベルに対してどのように価値を提供するかを示し、さらなる研究の方向性を提案する。
関連論文リスト
- Tit-for-Tat: Safeguarding Large Vision-Language Models Against Jailbreak Attacks via Adversarial Defense [90.71884758066042]
大きな視覚言語モデル(LVLM)は、視覚入力による悪意のある攻撃に対する感受性という、ユニークな脆弱性を導入している。
本稿では,脆弱性発生源からアクティブ防衛機構へ視覚空間を変換するための新しい手法であるESIIIを提案する。
論文 参考訳(メタデータ) (2025-03-14T17:39:45Z) - 2FA: Navigating the Challenges and Solutions for Inclusive Access [55.2480439325792]
2要素認証(2FA)は、オンライン活動を保護する重要なソリューションとして浮上している。
本稿では,全ユーザに対して安全かつアクセス可能な方法で2FAをデプロイすることの難しさについて検討する。
人気オンラインプラットフォームにおける様々な2FA手法の実装と利用状況について分析を行った。
論文 参考訳(メタデータ) (2025-02-17T12:23:53Z) - Hierarchical Multi-agent Reinforcement Learning for Cyber Network Defense [7.967738380932909]
本稿では,サイバー防御タスクをネットワーク調査やホストリカバリといった特定のサブタスクに分解する階層的PPOアーキテクチャを提案する。
我々のアプローチは、ドメインの専門知識が強化されたPPOを使用して、各サブタスクのサブ政治を訓練することである。
これらのサブ政治は、複雑なネットワーク防御タスクを解決するためにそれらの選択を調整するマスターディフェンスポリシーによって活用される。
論文 参考訳(メタデータ) (2024-10-22T18:35:05Z) - Latent-Predictive Empowerment: Measuring Empowerment without a Simulator [56.53777237504011]
我々は、より実用的な方法でエンパワーメントを計算するアルゴリズムであるLatent-Predictive Empowerment(LPE)を提案する。
LPEは、スキルと国家間の相互情報の原則的な置き換えである目的を最大化することで、大きなスキルセットを学習する。
論文 参考訳(メタデータ) (2024-10-15T00:41:18Z) - Adapting cybersecurity frameworks to manage frontier AI risks: A defense-in-depth approach [0.0]
AI関連のリスク管理におけるギャップの特定を支援する3つのアプローチを概説する。
まず、機能的なアプローチは、リスク管理アプローチがカバーすべきアクティビティの不可欠なカテゴリを特定します。
第二に、ライフサイクルのアプローチは、モデル開発ライフサイクル全体にわたって安全とセキュリティのアクティビティを割り当てます。
第3に、脅威に基づくアプローチは、悪意のあるアクターが使用する戦術、テクニック、手順を特定する。
論文 参考訳(メタデータ) (2024-08-15T05:06:03Z) - ISSF: The Intelligent Security Service Framework for Cloud-Native Operation [0.2867517731896504]
本研究は、クラウドネイティブ操作のためのエージェントベースのインテリジェントセキュリティサービスフレームワーク(ISSF)を開発する。
これには、クラウドネイティブ環境を表現する動的アクセスグラフモデルと、攻撃と防御のアクションを表現するアクションモデルが含まれている。
実験により、当社のフレームワークは、ディフェンダーのためのクラウドネイティブシステムのセキュリティ姿勢を十分にモデル化できることが示された。
論文 参考訳(メタデータ) (2024-03-03T13:13:06Z) - Learning Cyber Defence Tactics from Scratch with Multi-Agent
Reinforcement Learning [4.796742432333795]
コンピュータネットワーク防衛の役割における知的エージェントのチームは、サイバーおよび運動的資産を保護するための有望な道を明らかにする可能性がある。
エージェントは、ホストベースの防衛シナリオにおける攻撃活動を共同で緩和する能力に基づいて評価される。
論文 参考訳(メタデータ) (2023-08-25T14:07:50Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。