論文の概要: Ain't How You Deploy: An Analysis of BGP Security Policies Performance Against Various Attack Scenarios with Differing Deployment Strategies
- arxiv url: http://arxiv.org/abs/2408.15970v1
- Date: Wed, 28 Aug 2024 17:43:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 14:59:16.355597
- Title: Ain't How You Deploy: An Analysis of BGP Security Policies Performance Against Various Attack Scenarios with Differing Deployment Strategies
- Title(参考訳): デプロイ方法に反する - デプロイ戦略の異なるさまざまな攻撃シナリオに対するBGPセキュリティポリシのパフォーマンス分析
- Authors: Seth Barrett, Calvin Idom, German Zavala Villafuerte, Andrew Byers, Berk Gulmezoglu,
- Abstract要約: 本稿では,BGP(Border Gateway Protocol)のセキュリティポリシを,異なるデプロイメント戦略を用いて複数の攻撃シナリオに対して適用する方法について検討する。
広範囲なシミュレーションを通じて、異なるAS配置タイプにわたるROV(Root Origin Validation)、ASPA(Autonomous System Provider Authorization)、PeerROV(PeerROV)などの防御メカニズムの有効性を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the performance of various Border Gateway Protocol (BGP) security policies against multiple attack scenarios using different deployment strategies. Through extensive simulations, we evaluate the effectiveness of defensive mechanisms such as Root Origin Validation (ROV), Autonomous System Provider Authorization (ASPA), and PeerROV across distinct AS deployment types. Our findings reveal critical insights into the strengths and limitations of current BGP security measures, providing guidance for future policy development and implementation.
- Abstract(参考訳): 本稿では,BGP(Border Gateway Protocol)のセキュリティポリシを,異なるデプロイメント戦略を用いて複数の攻撃シナリオに対して適用する方法について検討する。
広範囲なシミュレーションを通じて、異なるAS配置タイプにわたるROV(Root Origin Validation)、ASPA(Autonomous System Provider Authorization)、PeerROV(PeerROV)などの防御メカニズムの有効性を評価する。
本研究は,現行のBGPセキュリティ対策の長所と短所に関する重要な知見を明らかにし,今後の政策開発と実施の指針を提供する。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Diffusion Policy Attacker: Crafting Adversarial Attacks for Diffusion-based Policies [13.22130497099424]
拡散モデル(DM)は行動クローニング(BC)の有望なアプローチとして登場した。
政策創出の基盤としてDPの採用が増加しているにもかかわらず、安全の重大な問題は未解決のままである。
本稿では,DP-Attackerを提案する。DP-Attackerは,全てのシナリオにまたがる効果的な敵攻撃を実現するアルゴリズムである。
論文 参考訳(メタデータ) (2024-05-29T18:06:25Z) - Supported Trust Region Optimization for Offline Reinforcement Learning [59.43508325943592]
本稿では,行動方針の支持範囲内で制約された政策を用いて信頼地域政策の最適化を行う,信頼地域最適化(STR)を提案する。
近似やサンプリング誤差を仮定すると、STRはデータセットの最適サポート制約ポリシーに収束するまで厳密なポリシー改善を保証する。
論文 参考訳(メタデータ) (2023-11-15T13:16:16Z) - Diverse Policy Optimization for Structured Action Space [59.361076277997704]
エネルギーベースモデル(EBM)として構造化された行動空間における政策をモデル化するための多元的政策最適化(DPO)を提案する。
新しい強力な生成モデルであるGFlowNetは、効率よく多様なEMMベースのポリシーサンプリングとして導入されている。
ATSCとBattleベンチマークの実験では、DPOが驚くほど多様なポリシーを効率的に発見できることが示されている。
論文 参考訳(メタデータ) (2023-02-23T10:48:09Z) - A System for Interactive Examination of Learned Security Policies [0.0]
本稿では,学習したセキュリティポリシーを相互に検証するシステムを提案する。
これにより、ユーザーはマルコフ決定プロセスのエピソードを制御された方法で横切ることができる。
論文 参考訳(メタデータ) (2022-04-03T17:55:32Z) - Multi-Objective SPIBB: Seldonian Offline Policy Improvement with Safety
Constraints in Finite MDPs [71.47895794305883]
オフライン強化学習環境における制約下での安全政策改善(SPI)の問題について検討する。
本稿では,異なる報酬信号に対するトレードオフを扱うアルゴリズムのユーザの好みを考慮した,このRL設定のためのSPIを提案する。
論文 参考訳(メタデータ) (2021-05-31T21:04:21Z) - Semi-On-Policy Training for Sample Efficient Multi-Agent Policy
Gradients [51.749831824106046]
本稿では,オンライン政策グラデーション手法のサンプル非効率性に効果的かつ効率的な手法として,セミ・オン・ポリティ(SOP)トレーニングを導入する。
提案手法は,様々なSMACタスクにおいて,最先端の値ベース手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-04-27T19:37:01Z) - An RL-Based Adaptive Detection Strategy to Secure Cyber-Physical Systems [0.0]
ソフトウェアベースの制御への依存が高まり、サイバー物理システムの脆弱性が高まった。
攻撃シナリオから学んだ経験に基づいて,このような検出器のパラメータを適応的に設定する強化学習(RL)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-04T07:38:50Z) - Variational Policy Propagation for Multi-agent Reinforcement Learning [68.26579560607597]
本稿では,エージェント間の相互作用を通じて,共役ポリシーを学習するために,変動ポリシー伝搬 (VPP) という,共役型多エージェント強化学習アルゴリズムを提案する。
共同政策がマルコフランダム場(Markov Random Field)であることは、いくつかの穏やかな条件下で証明し、それによって政策空間を効果的に減少させる。
我々は、マルコフ確率場から効率的に行動をサンプリングでき、全体的な政策が微分可能であるようなポリシーにおいて、変動推論を特別な微分可能な層として統合する。
論文 参考訳(メタデータ) (2020-04-19T15:42:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。