論文の概要: Evaluating Attacker Risk Behavior in an Internet of Things Ecosystem
- arxiv url: http://arxiv.org/abs/2109.11592v1
- Date: Thu, 23 Sep 2021 18:53:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 06:14:27.681192
- Title: Evaluating Attacker Risk Behavior in an Internet of Things Ecosystem
- Title(参考訳): モノのインターネットエコシステムにおける攻撃的リスク行動の評価
- Authors: Erick Galinkin and John Carter and Spiros Mancoridis
- Abstract要約: サイバーセキュリティでは、攻撃者は真面目で、無知なスクリプト・キッズからステルス、忍耐強い脅威まで様々だ。
本研究は、攻撃者のリスク探索やリスク回避が、検出最適化ディフェンダーに対する操作にどのように影響するかを考察する。
- 参考スコア(独自算出の注目度): 2.958532752589616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In cybersecurity, attackers range from brash, unsophisticated script kiddies
and cybercriminals to stealthy, patient advanced persistent threats. When
modeling these attackers, we can observe that they demonstrate different
risk-seeking and risk-averse behaviors. This work explores how an attacker's
risk seeking or risk averse behavior affects their operations against
detection-optimizing defenders in an Internet of Things ecosystem. Using an
evaluation framework which uses real, parametrizable malware, we develop a game
that is played by a defender against attackers with a suite of malware that is
parameterized to be more aggressive and more stealthy. These results are
evaluated under a framework of exponential utility according to their
willingness to accept risk. We find that against a defender who must choose a
single strategy up front, risk-seeking attackers gain more actual utility than
risk-averse attackers, particularly in cases where the defender is better
equipped than the two attackers anticipate. Additionally, we empirically
confirm that high-risk, high-reward scenarios are more beneficial to
risk-seeking attackers like cybercriminals, while low-risk, low-reward
scenarios are more beneficial to risk-averse attackers like advanced persistent
threats.
- Abstract(参考訳): サイバーセキュリティでは、攻撃者は真面目なスクリプトキッズやサイバー犯罪者から、忍び寄る、忍耐強い脅威まで幅広い。
これらの攻撃者をモデル化する場合、異なるリスクシーキングとリスク回避行動を示すことが観察できる。
本研究は,モノのインターネット(Internet of Things)エコシステムにおける攻撃者のリスク検索やリスク回避行動が,検出最適化ディフェンダーに対する操作にどのように影響するかを考察する。
実測可能なマルウェアを用いた評価フレームワークを用いて,より攻撃的かつステルス性のあるマルウェア群を用いて,攻撃者に対してディフェンダーがプレイするゲームを開発した。
これらの結果は、リスクを受け入れる意志に応じて指数的効用の枠組みで評価される。
攻撃者が前もって1つの戦略を選択しなければならない被告に対して、特に2人の攻撃者が予想するよりも優れた装備を有する場合において、リスクを問う攻撃者はリスク回避攻撃者よりも現実的な実用性を得る。
さらに、我々は、高リスクで高リスクなシナリオがサイバー犯罪者のようなリスクを探す攻撃者にとってより有益であることを実証的に確認した。
関連論文リスト
- SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Improving behavior based authentication against adversarial attack using XAI [3.340314613771868]
本稿では,eXplainable AI(XAI)をベースとした,このようなシナリオにおける敵攻撃に対する防御戦略を提案する。
本手法で訓練した特徴セレクタは,元の認証器の前のフィルタとして使用することができる。
我々は,XAIをベースとした防衛戦略が敵の攻撃に対して有効であり,他の防衛戦略よりも優れていることを実証する。
論文 参考訳(メタデータ) (2024-02-26T09:29:05Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Widen The Backdoor To Let More Attackers In [24.540853975732922]
マルチエージェントバックドア攻撃のシナリオについて検討し、複数の非衝突攻撃者が共有データセットにトリガサンプルを挿入する。
攻撃者数の増加は攻撃者の攻撃成功率を減少させる。
そして、この現象を利用して攻撃者の集合的ASRを最小化し、防御者の堅牢性を最大化する。
論文 参考訳(メタデータ) (2021-10-09T13:53:57Z) - Are Adversarial Examples Created Equal? A Learnable Weighted Minimax
Risk for Robustness under Non-uniform Attacks [70.11599738647963]
敵の訓練は、強力な攻撃に耐える数少ない防衛の1つである。
従来の防御機構は、基礎となるデータ分布に従って、サンプルに対する均一な攻撃を前提とします。
非一様攻撃に対して重み付けされたミニマックスリスク最適化を提案する。
論文 参考訳(メタデータ) (2020-10-24T21:20:35Z) - Revisiting Adversarially Learned Injection Attacks Against Recommender
Systems [6.920518936054493]
本稿では,逆学習型インジェクションアタック問題を再考する。
我々は、最適化問題として偽ユーザーを生成するための正確な解決策が、はるかに大きな影響をもたらすことを示している。
論文 参考訳(メタデータ) (2020-08-11T17:30:02Z) - Adversarial Deep Ensemble: Evasion Attacks and Defenses for Malware
Detection [8.551227913472632]
悪意のある機能を損なうことなく、マルウェアの例を妨害する新たな攻撃手法を提案する。
このことは、ディープニューラルネットワークのアンサンブルを強化するために、敵のトレーニングの新たなインスタンス化につながる。
2つの実用的なデータセットに対する26の異なる攻撃に対して,Androidマルウェア検出器を用いた防御評価を行った。
論文 参考訳(メタデータ) (2020-06-30T05:56:33Z) - Arms Race in Adversarial Malware Detection: A Survey [33.8941961394801]
悪意あるソフトウェア(マルウェア)は、機械学習(ML)技術に対処しなければならない主要なサイバー脅威である。
MLは敵例として知られる攻撃に対して脆弱である。
ディフェンダーの機能セットを知ることは、転送攻撃の成功に不可欠である。
敵の訓練の有効性は、最も強力な攻撃を識別するディフェンダーの能力に依存する。
論文 参考訳(メタデータ) (2020-05-24T07:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。