論文の概要: Adversarial attacks and defenses on ML- and hardware-based IoT device
fingerprinting and identification
- arxiv url: http://arxiv.org/abs/2212.14677v1
- Date: Fri, 30 Dec 2022 13:11:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 17:14:47.339166
- Title: Adversarial attacks and defenses on ML- and hardware-based IoT device
fingerprinting and identification
- Title(参考訳): MLおよびハードウェアベースのIoTデバイスの指紋認証と識別に対する敵攻撃と防御
- Authors: Pedro Miguel S\'anchez S\'anchez, Alberto Huertas Celdr\'an,
G\'er\^ome Bovet, Gregorio Mart\'inez P\'erez
- Abstract要約: 本研究では,個々のデバイス識別のためのハードウェア性能挙動に基づくLSTM-CNNアーキテクチャを提案する。
これまでは、45台のRaspberry Piデバイスから収集されたハードウェアパフォーマンスデータセットを使用して、提案されたアーキテクチャと比較されてきた。
回避攻撃に対するモデルレジリエンスを改善するために 敵の訓練と モデル蒸留防衛技術が選択される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the last years, the number of IoT devices deployed has suffered an
undoubted explosion, reaching the scale of billions. However, some new
cybersecurity issues have appeared together with this development. Some of
these issues are the deployment of unauthorized devices, malicious code
modification, malware deployment, or vulnerability exploitation. This fact has
motivated the requirement for new device identification mechanisms based on
behavior monitoring. Besides, these solutions have recently leveraged Machine
and Deep Learning techniques due to the advances in this field and the increase
in processing capabilities. In contrast, attackers do not stay stalled and have
developed adversarial attacks focused on context modification and ML/DL
evaluation evasion applied to IoT device identification solutions. This work
explores the performance of hardware behavior-based individual device
identification, how it is affected by possible context- and ML/DL-focused
attacks, and how its resilience can be improved using defense techniques. In
this sense, it proposes an LSTM-CNN architecture based on hardware performance
behavior for individual device identification. Then, previous techniques have
been compared with the proposed architecture using a hardware performance
dataset collected from 45 Raspberry Pi devices running identical software. The
LSTM-CNN improves previous solutions achieving a +0.96 average F1-Score and 0.8
minimum TPR for all devices. Afterward, context- and ML/DL-focused adversarial
attacks were applied against the previous model to test its robustness. A
temperature-based context attack was not able to disrupt the identification.
However, some ML/DL state-of-the-art evasion attacks were successful. Finally,
adversarial training and model distillation defense techniques are selected to
improve the model resilience to evasion attacks, without degrading its
performance.
- Abstract(参考訳): ここ数年で、デプロイされるIoTデバイスの数が爆発的に増加し、数十億に達した。
しかし、この開発とともに新たなサイバーセキュリティの問題が現れた。
これらの問題のいくつかは、不正なデバイスのデプロイ、悪意のあるコード修正、マルウェアのデプロイ、脆弱性のエクスプロイトである。
この事実は、行動監視に基づく新しいデバイス識別メカニズムの必要性を動機づけている。
さらに、これらのソリューションは最近、この分野の進歩と処理能力の向上により、機械学習とディープラーニングの技術を活用している。
対照的に、攻撃者は停止状態に留まらず、IoTデバイス識別ソリューションに適用されるコンテキスト修正とML/DL評価回避に焦点を当てた敵攻撃を開発した。
本研究は,ハードウェア動作に基づく個別デバイス識別の性能,コンテキストやML/DLによる攻撃の影響,防御技術を用いてレジリエンスを改善する方法について検討する。
この意味では、個々のデバイス識別のためのハードウェア性能挙動に基づくLSTM-CNNアーキテクチャを提案する。
そして、同じソフトウェアを実行する45のRaspberry Piデバイスから収集されたハードウェアパフォーマンスデータセットを用いて、提案したアーキテクチャと比較した。
LSTM-CNNは以前のソリューションを改善し、すべてのデバイスに対して平均F1スコア+0.96、最小TPR0.8を達成する。
その後、ML/DLに焦点をあてた対向攻撃を以前のモデルに対して適用し、ロバスト性を検証した。
温度ベースのコンテキスト攻撃では、識別を妨害できなかった。
しかし,ML/DLによる回避攻撃は成功した。
最後に, 回避攻撃に対するモデルレジリエンスを向上させるため, 性能を低下させることなく, 対向訓練およびモデル蒸留防御技術を選択する。
関連論文リスト
- MIBench: A Comprehensive Benchmark for Model Inversion Attack and Defense [43.71365087852274]
Model Inversion (MI)攻撃は、ターゲットモデルの出力情報を活用して、プライバシに敏感なトレーニングデータを再構築することを目的としている。
包括的で整合性があり、信頼性の高いベンチマークが欠如していることは、非常に大きな課題である。
この致命的なギャップに対処するため、モデル反転攻撃と防御のための最初の実用的なベンチマーク(textitMIBench)を紹介した。
論文 参考訳(メタデータ) (2024-10-07T16:13:49Z) - FedMADE: Robust Federated Learning for Intrusion Detection in IoT Networks Using a Dynamic Aggregation Method [7.842334649864372]
さまざまな分野にわたるIoT(Internet of Things)デバイスは、深刻なネットワークセキュリティ上の懸念をエスカレートしている。
サイバー攻撃分類のための従来の機械学習(ML)ベースの侵入検知システム(IDS)は、IoTデバイスからトラフィック分析のための集中サーバへのデータ送信を必要とし、深刻なプライバシー上の懸念を引き起こす。
我々はFedMADEという新しい動的アグリゲーション手法を紹介した。この手法はデバイスをトラフィックパターンによってクラスタリングし、その全体的なパフォーマンスに対する貢献に基づいてローカルモデルを集約する。
論文 参考訳(メタデータ) (2024-08-13T18:42:34Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Real-time Threat Detection Strategies for Resource-constrained Devices [1.4815508281465273]
本稿では,ルータ内のDNSトンネリング攻撃を効果的に処理するエンド・ツー・エンド・プロセスを提案する。
我々は、MLモデルをトレーニングするためにステートレスな機能を利用することと、ネットワーク構成から独立して選択した機能を利用することで、非常に正確な結果が得られることを実証した。
さまざまな環境にまたがる組み込みデバイスに最適化されたこの慎重に構築されたモデルのデプロイにより、最小のレイテンシでDNSチューニングされた攻撃検出が可能になった。
論文 参考訳(メタデータ) (2024-03-22T10:02:54Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Crafter: Facial Feature Crafting against Inversion-based Identity Theft
on Deep Models [45.398313126020284]
典型的なアプリケーションは、異なる個人から収集された顔画像に機械学習サービスを実行することである。
アイデンティティの盗難を防止するため、従来の手法では、その特徴からアイデンティティ情報を隠蔽するために、対戦ゲームベースのアプローチを頼りにしている。
適応モデル攻撃から識別情報を保護するために,エッジに展開する特徴工法であるCrafterを提案する。
論文 参考訳(メタデータ) (2024-01-14T05:06:42Z) - CyberForce: A Federated Reinforcement Learning Framework for Malware Mitigation [6.22761577977019]
CyberForceは、フェデレーションと強化学習(FRL)を組み合わせて、ゼロデイ攻撃を緩和するための適切なMTDテクニックを学ぶフレームワークである。
実験の結果、CyberForceは既存のRLベースの集中型アプローチよりも高速に攻撃を緩和するMTD技術を学んだ。
エージェント学習プロセスで使用される異なる集約アルゴリズムは、CyberForceに悪意のある攻撃に対する顕著な堅牢性を提供する。
論文 参考訳(メタデータ) (2023-08-11T07:25:12Z) - Discretization-based ensemble model for robust learning in IoT [8.33619265970446]
本稿では,機械学習モデルのセキュリティ向上を目的とした,離散化に基づくアンサンブルスタック手法を提案する。
我々は、ホワイトボックスやブラックボックス攻撃に対して、さまざまなMLベースのIoTデバイス識別モデルの性能を評価する。
論文 参考訳(メタデータ) (2023-07-18T03:48:27Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Robust Federated Learning for execution time-based device model
identification under label-flipping attack [0.0]
デバイス偽造と偽造のサイバー攻撃は、その影響と、通常、打ち上げに必要な複雑さが低いために際立っている。
行動フィンガープリントとML/DL(Machine/Deep Learning)技術の組み合わせに基づいて、デバイスモデルとタイプを特定するいくつかのソリューションが登場した。
フェデレートラーニング(FL)のような新しいアプローチは、特にシナリオ設定に悪意のあるクライアントが存在する場合、まだ十分に検討されていない。
論文 参考訳(メタデータ) (2021-11-29T10:27:14Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。