論文の概要: Assessing the Influence of Different Types of Probing on Adversarial Decision-Making in a Deception Game
- arxiv url: http://arxiv.org/abs/2310.10662v3
- Date: Mon, 8 Jan 2024 05:04:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 02:23:27.302069
- Title: Assessing the Influence of Different Types of Probing on Adversarial Decision-Making in a Deception Game
- Title(参考訳): ディセプションゲームにおける異なるタイプの探索が逆方向決定過程に及ぼす影響の評価
- Authors: Md Abu Sayed, Mohammad Ariful Islam Khan, Bryant A Allsup, Joshua Zamora, Palvi Aggarwal,
- Abstract要約: 我々は,敵対的決定に関するさまざまな費用を調査するために,騙しゲーム(DG)を使用します。
その結果, 探索コストの増加に伴い, 探索はわずかに削減された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deception, which includes leading cyber-attackers astray with false information, has shown to be an effective method of thwarting cyber-attacks. There has been little investigation of the effect of probing action costs on adversarial decision-making, despite earlier studies on deception in cybersecurity focusing primarily on variables like network size and the percentage of honeypots utilized in games. Understanding human decision-making when prompted with choices of various costs is essential in many areas such as in cyber security. In this paper, we will use a deception game (DG) to examine different costs of probing on adversarial decisions. To achieve this we utilized an IBLT model and a delayed feedback mechanism to mimic knowledge of human actions. Our results were taken from an even split of deception and no deception to compare each influence. It was concluded that probing was slightly taken less as the cost of probing increased. The proportion of attacks stayed relatively the same as the cost of probing increased. Although a constant cost led to a slight decrease in attacks. Overall, our results concluded that the different probing costs do not have an impact on the proportion of attacks whereas it had a slightly noticeable impact on the proportion of probing.
- Abstract(参考訳): 偽情報によるサイバー攻撃を主導するサイバー攻撃者を含む偽装は、サイバー攻撃を阻止する効果的な方法であることが示されている。
主にネットワークサイズやゲームで使用されるハニーポットの割合といった変数に焦点を当てたサイバーセキュリティの偽装に関する以前の研究にもかかわらず、敵の意思決定に行動コストが及ぼす影響についてはほとんど調査されていない。
サイバーセキュリティなど、多くの分野において、さまざまなコストの選択によって人的意思決定を理解することが不可欠である。
本稿では,敵対的決定に対する探索の異なるコストを検討するために,偽装ゲーム (DG) を用いる。
そこで我々は,IBLTモデルと遅延フィードバック機構を用いて,人間の行動の知識を模倣した。
結果は, 虚偽の相違から得られたものであり, それぞれの影響を比較するための虚偽の相違は認められなかった。
その結果, 探索コストの増加に伴い, 探索はわずかに削減された。
攻撃の割合は、調査費用の増加と比較的同じであった。
コストは一定であったが、攻撃はわずかに減少した。
以上の結果から,異なる調査コストが攻撃率に影響を及ぼさない一方で,調査コストにわずかに影響を及ぼすことが明らかとなった。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - Effect of Adaptation Rate and Cost Display in a Human-AI Interaction Game [15.991622356042551]
我々は,AIの適応アルゴリズムの変化が2プレイヤー連続ゲームにおける行動予測に与える影響について検討した。
緩やかな適応率は結果をナッシュ均衡にシフトし、速さは結果を人間主導のスタッケルベルク均衡にシフトさせる。
論文 参考訳(メタデータ) (2024-08-26T21:08:21Z) - Decision-BADGE: Decision-based Adversarial Batch Attack with Directional
Gradient Estimation [0.0]
Decision-BADGEは、決定ベースのブラックボックス攻撃を実行するために、普遍的な敵の摂動を構築する新しい方法である。
提案手法は,トレーニング時間が少なく,良好な成功率を示す。
この研究は、Decision-BADGEが未確認の犠牲者モデルを無視し、特定のクラスを正確にターゲットすることができることも示している。
論文 参考訳(メタデータ) (2023-03-09T01:42:43Z) - Zero-shot causal learning [64.9368337542558]
CaMLは因果メタラーニングフレームワークであり、各介入の効果をタスクとしてパーソナライズした予測を定式化する。
トレーニング時に存在しない新規介入のパーソナライズされた効果を予測することができることを示す。
論文 参考訳(メタデータ) (2023-01-28T20:14:11Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - Disturbing Reinforcement Learning Agents with Corrupted Rewards [62.997667081978825]
強化学習アルゴリズムに対する報酬の摂動に基づく異なる攻撃戦略の効果を分析します。
敵対的な報酬をスムーズに作成することは学習者を誤解させることができ、低探査確率値を使用すると、学習した政策は報酬を腐敗させるのがより堅牢であることを示しています。
論文 参考訳(メタデータ) (2021-02-12T15:53:48Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Exacerbating Algorithmic Bias through Fairness Attacks [16.367458747841255]
敵が意図的にシステムの公平性を標的とする新たなタイプのデータ中毒攻撃を提案する。
アンカー攻撃では、特定のターゲットポイントに毒点を配置することで決定境界を歪め、結果にバイアスを与える。
影響攻撃においては,敏感な属性と決定結果の共分散を最大化し,モデルの公平性に影響を及ぼすことを目的とする。
論文 参考訳(メタデータ) (2020-12-16T03:44:17Z) - Manipulating Reinforcement Learning: Poisoning Attacks on Cost Signals [22.755411056179813]
本章は、強化学習(RL)におけるサイバー攻撃の出現について研究する。
操作中のTD($lambda$)と$Q$-learningアルゴリズムの性能劣化を分析する。
TD($lambda$)学習のケーススタディは、結果を相関付けるために提供される。
論文 参考訳(メタデータ) (2020-02-07T15:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。