論文の概要: Adversarial attacks and defenses on ML- and hardware-based IoT device
fingerprinting and identification
- arxiv url: http://arxiv.org/abs/2212.14677v1
- Date: Fri, 30 Dec 2022 13:11:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 17:14:47.339166
- Title: Adversarial attacks and defenses on ML- and hardware-based IoT device
fingerprinting and identification
- Title(参考訳): MLおよびハードウェアベースのIoTデバイスの指紋認証と識別に対する敵攻撃と防御
- Authors: Pedro Miguel S\'anchez S\'anchez, Alberto Huertas Celdr\'an,
G\'er\^ome Bovet, Gregorio Mart\'inez P\'erez
- Abstract要約: 本研究では,個々のデバイス識別のためのハードウェア性能挙動に基づくLSTM-CNNアーキテクチャを提案する。
これまでは、45台のRaspberry Piデバイスから収集されたハードウェアパフォーマンスデータセットを使用して、提案されたアーキテクチャと比較されてきた。
回避攻撃に対するモデルレジリエンスを改善するために 敵の訓練と モデル蒸留防衛技術が選択される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the last years, the number of IoT devices deployed has suffered an
undoubted explosion, reaching the scale of billions. However, some new
cybersecurity issues have appeared together with this development. Some of
these issues are the deployment of unauthorized devices, malicious code
modification, malware deployment, or vulnerability exploitation. This fact has
motivated the requirement for new device identification mechanisms based on
behavior monitoring. Besides, these solutions have recently leveraged Machine
and Deep Learning techniques due to the advances in this field and the increase
in processing capabilities. In contrast, attackers do not stay stalled and have
developed adversarial attacks focused on context modification and ML/DL
evaluation evasion applied to IoT device identification solutions. This work
explores the performance of hardware behavior-based individual device
identification, how it is affected by possible context- and ML/DL-focused
attacks, and how its resilience can be improved using defense techniques. In
this sense, it proposes an LSTM-CNN architecture based on hardware performance
behavior for individual device identification. Then, previous techniques have
been compared with the proposed architecture using a hardware performance
dataset collected from 45 Raspberry Pi devices running identical software. The
LSTM-CNN improves previous solutions achieving a +0.96 average F1-Score and 0.8
minimum TPR for all devices. Afterward, context- and ML/DL-focused adversarial
attacks were applied against the previous model to test its robustness. A
temperature-based context attack was not able to disrupt the identification.
However, some ML/DL state-of-the-art evasion attacks were successful. Finally,
adversarial training and model distillation defense techniques are selected to
improve the model resilience to evasion attacks, without degrading its
performance.
- Abstract(参考訳): ここ数年で、デプロイされるIoTデバイスの数が爆発的に増加し、数十億に達した。
しかし、この開発とともに新たなサイバーセキュリティの問題が現れた。
これらの問題のいくつかは、不正なデバイスのデプロイ、悪意のあるコード修正、マルウェアのデプロイ、脆弱性のエクスプロイトである。
この事実は、行動監視に基づく新しいデバイス識別メカニズムの必要性を動機づけている。
さらに、これらのソリューションは最近、この分野の進歩と処理能力の向上により、機械学習とディープラーニングの技術を活用している。
対照的に、攻撃者は停止状態に留まらず、IoTデバイス識別ソリューションに適用されるコンテキスト修正とML/DL評価回避に焦点を当てた敵攻撃を開発した。
本研究は,ハードウェア動作に基づく個別デバイス識別の性能,コンテキストやML/DLによる攻撃の影響,防御技術を用いてレジリエンスを改善する方法について検討する。
この意味では、個々のデバイス識別のためのハードウェア性能挙動に基づくLSTM-CNNアーキテクチャを提案する。
そして、同じソフトウェアを実行する45のRaspberry Piデバイスから収集されたハードウェアパフォーマンスデータセットを用いて、提案したアーキテクチャと比較した。
LSTM-CNNは以前のソリューションを改善し、すべてのデバイスに対して平均F1スコア+0.96、最小TPR0.8を達成する。
その後、ML/DLに焦点をあてた対向攻撃を以前のモデルに対して適用し、ロバスト性を検証した。
温度ベースのコンテキスト攻撃では、識別を妨害できなかった。
しかし,ML/DLによる回避攻撃は成功した。
最後に, 回避攻撃に対するモデルレジリエンスを向上させるため, 性能を低下させることなく, 対向訓練およびモデル蒸留防御技術を選択する。
関連論文リスト
- CyberForce: A Federated Reinforcement Learning Framework for Malware
Mitigation [6.495840475254741]
CyberForceは、フェデレーションと強化学習(FRL)を組み合わせて、ゼロデイ攻撃を緩和するための適切なMTDテクニックを学ぶフレームワークである。
実験の結果、CyberForceは既存のRLベースの集中型アプローチよりも高速に攻撃を緩和するMTD技術を学んだ。
エージェント学習プロセスで使用される異なる集約アルゴリズムは、CyberForceに悪意のある攻撃に対する顕著な堅牢性を提供する。
論文 参考訳(メタデータ) (2023-08-11T07:25:12Z) - Discretization-based ensemble model for robust learning in IoT [8.33619265970446]
本稿では,機械学習モデルのセキュリティ向上を目的とした,離散化に基づくアンサンブルスタック手法を提案する。
我々は、ホワイトボックスやブラックボックス攻撃に対して、さまざまなMLベースのIoTデバイス識別モデルの性能を評価する。
論文 参考訳(メタデータ) (2023-07-18T03:48:27Z) - Overload: Latency Attacks on Object Detection for Edge Devices [60.10849291279201]
本稿では,ディープラーニングアプリケーションに対する遅延攻撃について検討する。
誤分類に対する一般的な敵攻撃とは異なり、遅延攻撃の目標は推論時間を増やすことである。
遅延攻撃では、通常の設定に対して1枚の画像の推測時間が10倍長くなることが示される。
論文 参考訳(メタデータ) (2023-04-11T17:24:31Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Adv-Bot: Realistic Adversarial Botnet Attacks against Network Intrusion
Detection Systems [0.7829352305480285]
最近、機械学習ベースのセキュリティシステムに対する攻撃の可能性について調査する研究者が増えている。
本研究では,ネットワークによる侵入検知システムに対する敵攻撃,特に回避攻撃の実現可能性について検討した。
私たちのゴールは、意図した悪意のある機能をすべて実行しながら、検出を回避できる敵ボットネットトラフィックを作ることです。
論文 参考訳(メタデータ) (2023-03-12T14:01:00Z) - Intrusion Detection in Internet of Things using Convolutional Neural
Networks [4.718295605140562]
CNNを用いたIoTデバイスへの侵入攻撃に対する新しい解決策を提案する。
データは畳み込み操作として符号化され、時間とともにセンサーデータからパターンをキャプチャする。
実験の結果, LSTMを用いたベースラインと比較して, 真正率, 偽正率ともに有意な改善が認められた。
論文 参考訳(メタデータ) (2022-11-18T07:27:07Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Robust Federated Learning for execution time-based device model
identification under label-flipping attack [0.0]
デバイス偽造と偽造のサイバー攻撃は、その影響と、通常、打ち上げに必要な複雑さが低いために際立っている。
行動フィンガープリントとML/DL(Machine/Deep Learning)技術の組み合わせに基づいて、デバイスモデルとタイプを特定するいくつかのソリューションが登場した。
フェデレートラーニング(FL)のような新しいアプローチは、特にシナリオ設定に悪意のあるクライアントが存在する場合、まだ十分に検討されていない。
論文 参考訳(メタデータ) (2021-11-29T10:27:14Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。