論文の概要: RL and Fingerprinting to Select Moving Target Defense Mechanisms for
Zero-day Attacks in IoT
- arxiv url: http://arxiv.org/abs/2212.14647v1
- Date: Fri, 30 Dec 2022 12:15:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 17:15:32.008762
- Title: RL and Fingerprinting to Select Moving Target Defense Mechanisms for
Zero-day Attacks in IoT
- Title(参考訳): IoTにおけるゼロデイアタックのための移動目標防御機構選択のためのRLとフィンガープリント
- Authors: Alberto Huertas Celdr\'an, Pedro Miguel S\'anchez S\'anchez, Jan von
der Assen, Timo Schenk, G\'er\^ome Bovet, Gregorio Mart\'inez P\'erez,
Burkhard Stiller
- Abstract要約: サイバー犯罪者は、リソース制限されたデバイスに影響を及ぼすゼロデイ攻撃に向かっている。
移動目標防衛は、標的攻撃面を動的に変更することで攻撃を緩和する有望なアプローチである。
本稿では,SBC におけるゼロデイ攻撃を緩和する MTD メカニズムを学習するためのオンライン RL ベースのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.5172201569251684
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cybercriminals are moving towards zero-day attacks affecting
resource-constrained devices such as single-board computers (SBC). Assuming
that perfect security is unrealistic, Moving Target Defense (MTD) is a
promising approach to mitigate attacks by dynamically altering target attack
surfaces. Still, selecting suitable MTD techniques for zero-day attacks is an
open challenge. Reinforcement Learning (RL) could be an effective approach to
optimize the MTD selection through trial and error, but the literature fails
when i) evaluating the performance of RL and MTD solutions in real-world
scenarios, ii) studying whether behavioral fingerprinting is suitable for
representing SBC's states, and iii) calculating the consumption of resources in
SBC. To improve these limitations, the work at hand proposes an online RL-based
framework to learn the correct MTD mechanisms mitigating heterogeneous zero-day
attacks in SBC. The framework considers behavioral fingerprinting to represent
SBCs' states and RL to learn MTD techniques that mitigate each malicious state.
It has been deployed on a real IoT crowdsensing scenario with a Raspberry Pi
acting as a spectrum sensor. More in detail, the Raspberry Pi has been infected
with different samples of command and control malware, rootkits, and ransomware
to later select between four existing MTD techniques. A set of experiments
demonstrated the suitability of the framework to learn proper MTD techniques
mitigating all attacks (except a harmfulness rootkit) while consuming <1 MB of
storage and utilizing <55% CPU and <80% RAM.
- Abstract(参考訳): サイバー犯罪者は、シングルボードコンピュータ(SBC)のようなリソース制限されたデバイスに影響を与えるゼロデイ攻撃に向かっている。
完全なセキュリティが非現実的であると仮定すると、移動目標防衛(MTD)は標的攻撃面を動的に変化させることで攻撃を緩和する有望なアプローチである。
それでも、ゼロデイアタックに適したmtdテクニックを選択することは、オープンチャレンジです。
強化学習(RL)は、試行錯誤によるMTD選択を最適化する効果的な手法であるが、文献は失敗する。
i)実世界のシナリオにおけるrlおよびmtdソリューションの性能評価
二 行動指紋がSBCの状態を表すのに適しているか、及び
三 sbcにおける資源の消費量の算定
これらの制限を改善するために、SBCにおける異種ゼロデイ攻撃を緩和する正しいMTDメカニズムを学ぶためのオンラインRLベースのフレームワークを提案する。
このフレームワークは、振る舞いフィンガープリントをSBCの状態を表現し、RLは悪意のある状態を緩和するMTD技術を学ぶ。
Raspberry Piがスペクトルセンサーとして動作する実際のIoTクラウドセンシングシナリオにデプロイされている。
さらに詳しくは、raspberry piは、コマンド&コントロールマルウェア、ルートキット、ランサムウェアの異なるサンプルに感染し、その後、既存の4つのmtd技術から選択される。
一連の実験は、全ての攻撃(有害なルートキットを除く)を緩和し、ストレージ1MBを消費し、55%のCPUと80%のRAMを利用する、適切なMTD技術を学ぶためのフレームワークの適合性を実証した。
関連論文リスト
- Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - CyberForce: A Federated Reinforcement Learning Framework for Malware
Mitigation [6.495840475254741]
CyberForceは、フェデレーションと強化学習(FRL)を組み合わせて、ゼロデイ攻撃を緩和するための適切なMTDテクニックを学ぶフレームワークである。
実験の結果、CyberForceは既存のRLベースの集中型アプローチよりも高速に攻撃を緩和するMTD技術を学んだ。
エージェント学習プロセスで使用される異なる集約アルゴリズムは、CyberForceに悪意のある攻撃に対する顕著な堅牢性を提供する。
論文 参考訳(メタデータ) (2023-08-11T07:25:12Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - RobustPdM: Designing Robust Predictive Maintenance against Adversarial
Attacks [0.0]
対人攻撃はRUL予測の深刻な欠陥(最大11倍)を引き起こす可能性を示し、3Xによる最先端のPdM攻撃の有効性を上回った。
また,敵攻撃を防御する新たな対人訓練法を提案する。
論文 参考訳(メタデータ) (2023-01-25T20:49:12Z) - Adversarial attacks and defenses on ML- and hardware-based IoT device
fingerprinting and identification [0.0]
本研究では,個々のデバイス識別のためのハードウェア性能挙動に基づくLSTM-CNNアーキテクチャを提案する。
これまでは、45台のRaspberry Piデバイスから収集されたハードウェアパフォーマンスデータセットを使用して、提案されたアーキテクチャと比較されてきた。
回避攻撃に対するモデルレジリエンスを改善するために 敵の訓練と モデル蒸留防衛技術が選択される。
論文 参考訳(メタデータ) (2022-12-30T13:11:35Z) - A Lightweight Moving Target Defense Framework for Multi-purpose Malware
Affecting IoT Devices [0.5172201569251684]
本研究は,IoTデバイスのネットワーク,データ,実行環境を変化させる4つの移動目標防御(MTD)機構を提案する。
このフレームワークは軽量でIoT指向のMTDフレームワークを提供し、MTDメカニズムのデプロイ時期とデプロイ方法を決定する。
論文 参考訳(メタデータ) (2022-10-14T11:34:26Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - Stealthy and Efficient Adversarial Attacks against Deep Reinforcement
Learning [30.46580767540506]
本稿では,Deep Reinforcement Learning Agentを効果的かつ効果的に攻撃するための2つの新しい敵攻撃手法を紹介する。
敵は将来の環境状態とエージェントの行動を予測するモデルを構築し、それぞれの攻撃戦略の損傷を評価し、最適な攻撃方法を選択する。
敵は自動的にドメインに依存しないモデルを学び、エピソード中のエージェントを攻撃する重要な瞬間を発見する。
論文 参考訳(メタデータ) (2020-05-14T16:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。