論文の概要: Modeling Penetration Testing with Reinforcement Learning Using
Capture-the-Flag Challenges: Trade-offs between Model-free Learning and A
Priori Knowledge
- arxiv url: http://arxiv.org/abs/2005.12632v2
- Date: Sat, 22 May 2021 09:31:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 23:48:44.083968
- Title: Modeling Penetration Testing with Reinforcement Learning Using
Capture-the-Flag Challenges: Trade-offs between Model-free Learning and A
Priori Knowledge
- Title(参考訳): capture-the-flag 課題を用いた強化学習による浸透テストのモデル化--モデルフリー学習と優先順位知識のトレードオフ
- Authors: Fabio Massimo Zennaro and Laszlo Erdodi
- Abstract要約: 侵入テストは、システムに対する攻撃をシミュレートしてシステムのセキュリティを評価するためのセキュリティエクササイズである。
本稿では,フラッグハックの難しさをとらえる形で表現された,簡易な浸透試験問題に焦点を当てる。
エージェントに提供可能な事前知識の異なる形式に依存することで、この課題が緩和される可能性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Penetration testing is a security exercise aimed at assessing the security of
a system by simulating attacks against it. So far, penetration testing has been
carried out mainly by trained human attackers and its success critically
depended on the available expertise. Automating this practice constitutes a
non-trivial problem, as the range of actions that a human expert may attempts
against a system and the range of knowledge she relies on to take her decisions
are hard to capture. In this paper, we focus our attention on simplified
penetration testing problems expressed in the form of capture the flag hacking
challenges, and we analyze how model-free reinforcement learning algorithms may
help to solve them. In modeling these capture the flag competitions as
reinforcement learning problems we highlight that a specific challenge that
characterize penetration testing is the problem of discovering the structure of
the problem at hand. We then show how this challenge may be eased by relying on
different forms of prior knowledge that may be provided to the agent. In this
way we demonstrate how the feasibility of tackling penetration testing using
reinforcement learning may rest on a careful trade-off between model-free and
model-based algorithms. By using techniques to inject a priori knowledge, we
show it is possible to better direct the agent and restrict the space of its
exploration problem, thus achieving solutions more efficiently.
- Abstract(参考訳): 侵入試験は、システムに対する攻撃をシミュレートしてシステムのセキュリティを評価するためのセキュリティ演習である。
これまでのところ、主に訓練された人間の攻撃者によって浸透試験が行われ、その成功は利用可能な専門知識に依存している。
このプラクティスの自動化は、人間の専門家がシステムに対して試みる可能性のある行動の範囲と、自身の決定に依拠する知識の範囲が捉えにくいため、非自明な問題を構成する。
本稿では,フラッグハックの課題を捕捉する形で表現された簡易な浸透試験問題に着目し,モデルフリー強化学習アルゴリズムがそれらの解決にどのように役立つかを分析する。
フラッグコンペティションを強化学習問題として捉えたモデルでは、侵入試験を特徴付ける特定の課題が、目の前の問題の構造を発見する問題であることを強調する。
次に、エージェントに提供可能な事前知識の異なる形式に依存することによって、この課題が緩和される可能性を示す。
このようにして、強化学習を用いた浸透試験の実現可能性について、モデルフリーとモデルベースアルゴリズムのトレードオフを慎重に行う方法を示す。
先行知識を注入する手法を用いることで,エージェントの指示が良くなり,探索問題の空間が制限され,ソリューションをより効率的に達成できることを示す。
関連論文リスト
- LEAP:D - A Novel Prompt-based Approach for Domain-Generalized Aerial Object Detection [2.1233286062376497]
学習可能なプロンプトを用いた革新的な視覚言語アプローチを提案する。
この手動プロンプトからのシフトは、ドメイン固有の知識干渉を減らすことを目的としている。
トレーニングプロセスを一段階のアプローチで合理化し、学習可能なプロンプトとモデルトレーニングを同時に更新する。
論文 参考訳(メタデータ) (2024-11-14T04:39:10Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Causal Reinforcement Learning: A Survey [57.368108154871]
強化学習は、不確実性の下でのシーケンシャルな決定問題の解決に不可欠なパラダイムである。
主な障害の1つは、強化学習エージェントが世界に対する根本的な理解を欠いていることである。
因果性は、体系的な方法で知識を形式化できるという点で顕著な利点がある。
論文 参考訳(メタデータ) (2023-07-04T03:00:43Z) - You Only Live Once: Single-Life Reinforcement Learning [124.1738675154651]
多くの現実世界の状況では、そのタスクを繰り返し実行できるポリシーを学ぶことではなく、単一のトライアルで1回だけ新しいタスクを成功させることが目的である。
エージェントが介入なしにひとつのエピソード内でタスクを完了しなければならない問題設定を形式化する。
本稿では,分散マッチング戦略を用いたQ$-weighted adversarial Learning (QWALE)を提案する。
論文 参考訳(メタデータ) (2022-10-17T09:00:11Z) - Towards Robust Deep Learning using Entropic Losses [0.0]
この論文は、新規な損失関数と検出スコアを提案することにより、未解決のアウト・オブ・ディストリビューション検出タスクに取り組む。
また、この頑健性に関連するタスクにも対処し、ディープニューラルネットワークによって提示される確率がどれほど現実的であるかを評価する。
論文 参考訳(メタデータ) (2022-08-06T18:52:39Z) - A Unified End-to-End Retriever-Reader Framework for Knowledge-based VQA [67.75989848202343]
本稿では,知識に基づくVQAに向けて,エンド・ツー・エンドのレトリバー・リーダー・フレームワークを提案する。
我々は、視覚言語による事前学習モデルからの多モーダルな暗黙の知識に光を当て、知識推論の可能性を掘り下げた。
提案手法では,知識検索のガイダンスを提供するだけでなく,質問応答に対してエラーが発生しやすいケースも排除できる。
論文 参考訳(メタデータ) (2022-06-30T02:35:04Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - Adversarial Example Detection for DNN Models: A Review [13.131592630524905]
敵対的な例(AE)の目的は、ディープラーニングモデルを騙すことであり、DLアプリケーションに潜在的なリスクをもたらす。
少数のレビューと調査が出版され、理論的には脅威の分類と対策方法を示した。
このような方法に関する詳細な議論を行い、8つの最先端検出器の実験結果を示す。
論文 参考訳(メタデータ) (2021-05-01T09:55:17Z) - Simulating SQL Injection Vulnerability Exploitation Using Q-Learning
Reinforcement Learning Agents [0.0]
我々は,この問題をセキュリティキャプチャ・ザ・フレーグの課題として位置づけることで,ofsqlインジェクション攻撃のダイナミクスを単純化することを検討する。
私たちは異なる強化学習エージェントをデプロイし、効果的なポリシーを学習して実行します。
その結果、セキュリティ環境における強化学習の可能性と限界の理解に寄与することを目指しています。
論文 参考訳(メタデータ) (2021-01-08T17:19:21Z) - Opportunities and Challenges in Deep Learning Adversarial Robustness: A
Survey [1.8782750537161614]
本稿では,機械学習アルゴリズムの安全性を保証するために,強靭に訓練されたアルゴリズムを実装するための戦略について検討する。
我々は、敵の攻撃と防衛を分類し、ロバスト最適化問題をmin-max設定で定式化し、それを3つのサブカテゴリに分類する。
論文 参考訳(メタデータ) (2020-07-01T21:00:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。