論文の概要: AdIoTack: Quantifying and Refining Resilience of Decision Tree Ensemble
Inference Models against Adversarial Volumetric Attacks on IoT Networks
- arxiv url: http://arxiv.org/abs/2203.09792v1
- Date: Fri, 18 Mar 2022 08:18:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-21 15:52:26.631800
- Title: AdIoTack: Quantifying and Refining Resilience of Decision Tree Ensemble
Inference Models against Adversarial Volumetric Attacks on IoT Networks
- Title(参考訳): AdIoTack:IoTネットワーク上の敵ボリューム攻撃に対する決定木アンサンブル推論モデルの定量化と精錬
- Authors: Arman Pashamokhtari and Gustavo Batista and Hassan Habibi Gharakheili
- Abstract要約: 本稿では,敵攻撃に対する決定木の脆弱性を強調するシステムであるAdIoTackを紹介する。
最悪のシナリオのモデルを評価するために、AdIoTackは、ホワイトボックスの敵学習を実行し、ボリューム攻撃を成功させる。
モデルがIoTデバイスに対する非敵のボリューム攻撃を検知し、多くの敵の攻撃を欠いていることを実証する。
- 参考スコア(独自算出の注目度): 1.1172382217477126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning-based techniques have shown success in cyber intelligence.
However, they are increasingly becoming targets of sophisticated data-driven
adversarial attacks resulting in misprediction, eroding their ability to detect
threats on network devices. In this paper, we present AdIoTack, a system that
highlights vulnerabilities of decision trees against adversarial attacks,
helping cybersecurity teams quantify and refine the resilience of their trained
models for monitoring IoT networks. To assess the model for the worst-case
scenario, AdIoTack performs white-box adversarial learning to launch successful
volumetric attacks that decision tree ensemble models cannot flag. Our first
contribution is to develop a white-box algorithm that takes a trained decision
tree ensemble model and the profile of an intended network-based attack on a
victim class as inputs. It then automatically generates recipes that specify
certain packets on top of the indented attack packets (less than 15% overhead)
that together can bypass the inference model unnoticed. We ensure that the
generated attack instances are feasible for launching on IP networks and
effective in their volumetric impact. Our second contribution develops a method
to monitor the network behavior of connected devices actively, inject
adversarial traffic (when feasible) on behalf of a victim IoT device, and
successfully launch the intended attack. Our third contribution prototypes
AdIoTack and validates its efficacy on a testbed consisting of a handful of
real IoT devices monitored by a trained inference model. We demonstrate how the
model detects all non-adversarial volumetric attacks on IoT devices while
missing many adversarial ones. The fourth contribution develops systematic
methods for applying patches to trained decision tree ensemble models,
improving their resilience against adversarial volumetric attacks.
- Abstract(参考訳): 機械学習ベースの技術は、サイバーインテリジェンスに成功している。
しかし、ネットワークデバイス上の脅威を検出する能力を損なうなど、洗練されたデータ駆動の敵の攻撃の標的になりつつある。
本稿では,敵攻撃に対する意思決定ツリーの脆弱性を強調するシステムであるAdIoTackを紹介し,IoTネットワーク監視のためにトレーニングされたモデルのレジリエンスを定量化し,洗練するのに役立つ。
最悪のシナリオのモデルを評価するために、adiotackはホワイトボックスの逆学習を実行して、決定木アンサンブルモデルがフラグを付けることができないボリューム攻撃を成功させる。
私たちの最初の貢献は、トレーニングされた決定木アンサンブルモデルと、被害者クラスを入力として意図したネットワークベースの攻撃のプロファイルを取るホワイトボックスアルゴリズムを開発することです。
そして、インデントされた攻撃パケット(15%未満のオーバーヘッド)の上に特定のパケットを指定するレシピを自動的に生成し、共に気づかない推論モデルをバイパスする。
生成された攻撃インスタンスがIPネットワーク上で起動可能であり、そのボリュームへの影響に有効であることを保証する。
第2のコントリビューションは、接続されたデバイスのネットワーク挙動を積極的に監視し、被害者のIoTデバイスに代わって敵のトラフィックを注入し、意図した攻撃を成功させる方法である。
第3のコントリビューションプロトタイプはAdIoTackで,トレーニングされた推論モデルによって監視される,少数の実際のIoTデバイスで構成されるテストベッド上での有効性を検証するものです。
モデルがIoTデバイスに対する非敵ボリューム攻撃を検知し、多くの敵攻撃を欠いていることを実証する。
第4の貢献は、訓練された決定木アンサンブルモデルにパッチを適用するための体系的な方法を開発し、敵のボリューム攻撃に対する弾力性を改善する。
関連論文リスト
- Discretization-based ensemble model for robust learning in IoT [8.33619265970446]
本稿では,機械学習モデルのセキュリティ向上を目的とした,離散化に基づくアンサンブルスタック手法を提案する。
我々は、ホワイトボックスやブラックボックス攻撃に対して、さまざまなMLベースのIoTデバイス識別モデルの性能を評価する。
論文 参考訳(メタデータ) (2023-07-18T03:48:27Z) - Detecting Anomalous Microflows in IoT Volumetric Attacks via Dynamic
Monitoring of MUD Activity [1.294952045574009]
異常に基づく検出手法は、新たな攻撃を見つける上で有望である。
偽陽性のアラームや説明が難しい、費用対効果の低い、といった現実的な課題があります。
本稿では、SDNを使用して、各IoTデバイスの期待する動作を強制し、監視する。
論文 参考訳(メタデータ) (2023-04-11T05:17:51Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification [0.0]
IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
論文 参考訳(メタデータ) (2023-01-30T18:00:28Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Modelling DDoS Attacks in IoT Networks using Machine Learning [21.812642970826563]
TCP固有の攻撃は、攻撃者がサイバー物理システムで使用できる最も有効なツールの1つである。
本研究では、CPS-IoTにおけるDDoS攻撃を検出するための教師付き、教師なし、および半教師付き機械学習アルゴリズムの有効性を比較する。
論文 参考訳(メタデータ) (2021-12-10T12:09:26Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - Adversarial Attacks on Machine Learning Cybersecurity Defences in
Industrial Control Systems [2.86989372262348]
本稿では, 教師付きモデルを対象として, 対戦型サンプルを生成することで, 対戦型学習をいかに活用できるかを考察する。
また、このようなサンプルが敵の訓練を用いて教師付きモデルの堅牢性をサポートする方法についても検討している。
その結果,広く使用されている2種類の分類器であるランダムフォレスト(Random Forest)とJ48(J48)の分類性能は,逆に16~20ポイント低下した。
論文 参考訳(メタデータ) (2020-04-10T12:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。