論文の概要: Learning to Defend by Attacking (and Vice-Versa): Transfer of Learning
in Cybersecurity Games
- arxiv url: http://arxiv.org/abs/2306.02165v1
- Date: Sat, 3 Jun 2023 17:51:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 19:46:31.227116
- Title: Learning to Defend by Attacking (and Vice-Versa): Transfer of Learning
in Cybersecurity Games
- Title(参考訳): サイバーセキュリティゲームにおける攻撃(および副Versa)による防御への学習
- Authors: Tyler Malloy, Cleotilde Gonzalez
- Abstract要約: 本稿では, 事例ベース学習理論, 心の理論, 学習の伝達の認知能力に着想を得た, 人間の意思決定の新しいモデルを提案する。
このモデルは、ディフェンダーとアタッカーの両方の役割から学び、相手の信念、意図、行動を予測することによって機能する。
シミュレーション実験の結果は、攻撃と防衛の役割で訓練されたエージェントの認知にインスパイアされたモデルの有用性を示す。
- 参考スコア(独自算出の注目度): 1.14219428942199
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Designing cyber defense systems to account for cognitive biases in human
decision making has demonstrated significant success in improving performance
against human attackers. However, much of the attention in this area has
focused on relatively simple accounts of biases in human attackers, and little
is known about adversarial behavior or how defenses could be improved by
disrupting attacker's behavior. In this work, we present a novel model of human
decision-making inspired by the cognitive faculties of Instance-Based Learning
Theory, Theory of Mind, and Transfer of Learning. This model functions by
learning from both roles in a security scenario: defender and attacker, and by
making predictions of the opponent's beliefs, intentions, and actions. The
proposed model can better defend against attacks from a wide range of opponents
compared to alternatives that attempt to perform optimally without accounting
for human biases. Additionally, the proposed model performs better against a
range of human-like behavior by explicitly modeling human transfer of learning,
which has not yet been applied to cyber defense scenarios. Results from
simulation experiments demonstrate the potential usefulness of cognitively
inspired models of agents trained in attack and defense roles and how these
insights could potentially be used in real-world cybersecurity.
- Abstract(参考訳): 人間の意思決定における認知バイアスを考慮に入れたサイバー防衛システムの設計は、人間の攻撃者に対するパフォーマンス向上に大きな成功を収めた。
しかし、この領域の注目の多くは、人間の攻撃者のバイアスの比較的単純な説明に焦点を合わせており、敵の行動や攻撃者の行動を乱すことによって防御がどのように改善されるかについてはほとんど分かっていない。
本研究では, 事例ベース学習理論, 心の理論, 学習の伝達の認知能力に着想を得た, 人間の意思決定の新しいモデルを提案する。
このモデルは、防御者と攻撃者の両方の役割から学び、相手の信念、意図、行動を予測することによって機能する。
提案したモデルは、人間の偏見を考慮せずに最適な行動を試みる代替手段と比較して、幅広い敵からの攻撃を防御できる。
さらに,提案モデルは,サイバー防衛のシナリオにはまだ適用されていない学習の人間移動を明示的にモデル化することで,人間的な行動に対してよりよく機能する。
シミュレーション実験の結果は、攻撃と防衛の役割で訓練されたエージェントの認知にインスパイアされたモデルの有用性と、これらの洞察が現実世界のサイバーセキュリティにどのように使われるかを示す。
関連論文リスト
- Sustainable Self-evolution Adversarial Training [51.25767996364584]
対戦型防衛モデルのための持続的自己進化支援訓練(SSEAT)フレームワークを提案する。
本研究は,様々な種類の対角的事例から学習を実現するために,連続的な対向防衛パイプラインを導入する。
また,より多様で重要な再学習データを選択するために,逆データ再生モジュールを提案する。
論文 参考訳(メタデータ) (2024-12-03T08:41:11Z) - Protecting Feed-Forward Networks from Adversarial Attacks Using Predictive Coding [0.20718016474717196]
逆の例は、機械学習(ML)モデルが誤りを犯すように設計された、修正された入力イメージである。
本研究では,敵防衛のための補助的なステップとして,予測符号化ネットワーク(PCnet)を用いた実用的で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T21:38:05Z) - Learn to Disguise: Avoid Refusal Responses in LLM's Defense via a Multi-agent Attacker-Disguiser Game [28.33029508522531]
悪意のある攻撃者は大規模なモデルを誘導して脱獄させ、違法なプライバシー侵害情報を含む情報を生成する。
大規模なモデルは、安全アライメントのような技術を使って悪意ある攻撃者の攻撃に対処する。
本研究では,攻撃者に対して安全に応答し,防御意図を隠蔽する,弱い防御機構を実現するためのマルチエージェント攻撃ゲーム手法を提案する。
論文 参考訳(メタデータ) (2024-04-03T07:43:11Z) - Adversarial Machine Learning and Defense Game for NextG Signal
Classification with Deep Learning [1.1726528038065764]
NextGシステムは、ユーザ機器の識別、物理層認証、既存ユーザの検出など、さまざまなタスクにディープニューラルネットワーク(DNN)を使用することができる。
本稿では,深層学習に基づくNextG信号分類のための攻撃と防御の相互作用を研究するゲーム理論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-22T15:13:03Z) - A Framework for Understanding Model Extraction Attack and Defense [48.421636548746704]
我々は,モデルユーティリティとユーザとのトレードオフと,敵の視点によるプライバシについて検討する。
我々は,このようなトレードオフを定量化し,その理論的特性を分析し,最適な敵攻撃・防衛戦略を理解するための最適化問題を開発する。
論文 参考訳(メタデータ) (2022-06-23T05:24:52Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Targeted Attack on Deep RL-based Autonomous Driving with Learned Visual
Patterns [18.694795507945603]
近年の研究では、敵の攻撃に対する深い強化学習を通じて学んだコントロールポリシーの脆弱性が実証されている。
本研究では, 物理的対象物に配置した視覚的学習パターンを用いて, 標的攻撃の実現可能性について検討する。
論文 参考訳(メタデータ) (2021-09-16T04:59:06Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Who's Afraid of Adversarial Transferability? [43.80151929320557]
adversarial transferabilityは、長年にわたって、adversarial machine learningの"big bad wolf"だった。
ブラックボックスの設定で、特定のターゲットモデルに特定の敵の例が転送可能かどうかを予測することは事実上不可能であることを示す。
論文 参考訳(メタデータ) (2021-05-02T09:44:12Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。