論文の概要: Discretization-based ensemble model for robust learning in IoT
- arxiv url: http://arxiv.org/abs/2307.08955v1
- Date: Tue, 18 Jul 2023 03:48:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 16:31:26.255254
- Title: Discretization-based ensemble model for robust learning in IoT
- Title(参考訳): IoTにおけるロバスト学習のための離散化に基づくアンサンブルモデル
- Authors: Anahita Namvar, Chandra Thapa, Salil S. Kanhere
- Abstract要約: 本稿では,機械学習モデルのセキュリティ向上を目的とした,離散化に基づくアンサンブルスタック手法を提案する。
我々は、ホワイトボックスやブラックボックス攻撃に対して、さまざまなMLベースのIoTデバイス識別モデルの性能を評価する。
- 参考スコア(独自算出の注目度): 8.33619265970446
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: IoT device identification is the process of recognizing and verifying
connected IoT devices to the network. This is an essential process for ensuring
that only authorized devices can access the network, and it is necessary for
network management and maintenance. In recent years, machine learning models
have been used widely for automating the process of identifying devices in the
network. However, these models are vulnerable to adversarial attacks that can
compromise their accuracy and effectiveness. To better secure device
identification models, discretization techniques enable reduction in the
sensitivity of machine learning models to adversarial attacks contributing to
the stability and reliability of the model. On the other hand, Ensemble methods
combine multiple heterogeneous models to reduce the impact of remaining noise
or errors in the model. Therefore, in this paper, we integrate discretization
techniques and ensemble methods and examine it on model robustness against
adversarial attacks. In other words, we propose a discretization-based ensemble
stacking technique to improve the security of our ML models. We evaluate the
performance of different ML-based IoT device identification models against
white box and black box attacks using a real-world dataset comprised of network
traffic from 28 IoT devices. We demonstrate that the proposed method enables
robustness to the models for IoT device identification.
- Abstract(参考訳): IoTデバイス識別は、接続されたIoTデバイスをネットワークに認識し、検証するプロセスである。
これは、認証されたデバイスだけがネットワークにアクセスできるようにするために必要なプロセスであり、ネットワーク管理とメンテナンスに必要である。
近年,ネットワーク内のデバイス識別プロセスの自動化に機械学習モデルが広く利用されている。
しかし、これらのモデルは、その正確性と有効性を損なう可能性のある敵攻撃に対して脆弱である。
デバイス識別モデルをより安全にするために、離散化技術は、モデルの安定性と信頼性に寄与する敵対的攻撃に対する機械学習モデルの感度を低下させる。
一方、Ensemble法は複数の異種モデルを組み合わせることで、モデル内の残音やエラーの影響を低減する。
そこで本研究では,離散化手法とアンサンブル手法を統合し,敵の攻撃に対するモデルロバスト性を検討する。
言い換えれば、我々のMLモデルのセキュリティを改善するために、離散化に基づくアンサンブルスタック技術を提案する。
28個のIoTデバイスからのネットワークトラフィックからなる実世界のデータセットを用いて、ホワイトボックスとブラックボックス攻撃に対するMLベースの異なるIoTデバイス識別モデルの性能を評価する。
提案手法により,iotデバイス識別モデルに対するロバスト性が実現できることを実証する。
関連論文リスト
- Harris Hawks Feature Selection in Distributed Machine Learning for
Secure IoT Environments [8.690178186919635]
IoT(Internet of Things)アプリケーションは、機密データを収集および転送することができる。
ハックされたIoTデバイスを検出する新しい方法を開発する必要がある。
本稿では,Hhson Hawks Optimization(HHO)とRandom Weight Network(RWN)に基づく特徴選択(FS)モデルを提案し,IoTボットネット攻撃を検出する。
論文 参考訳(メタデータ) (2023-02-20T09:38:12Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Multi-Edge Server-Assisted Dynamic Federated Learning with an Optimized
Floating Aggregation Point [51.47520726446029]
協調エッジ学習(CE-FL)は、分散機械学習アーキテクチャである。
CE-FLの過程をモデル化し,分析訓練を行った。
実世界のテストベッドから収集したデータを用いて,本フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-03-26T00:41:57Z) - AdIoTack: Quantifying and Refining Resilience of Decision Tree Ensemble
Inference Models against Adversarial Volumetric Attacks on IoT Networks [1.1172382217477126]
本稿では,敵攻撃に対する決定木の脆弱性を強調するシステムであるAdIoTackを紹介する。
最悪のシナリオのモデルを評価するために、AdIoTackは、ホワイトボックスの敵学習を実行し、ボリューム攻撃を成功させる。
モデルがIoTデバイスに対する非敵のボリューム攻撃を検知し、多くの敵の攻撃を欠いていることを実証する。
論文 参考訳(メタデータ) (2022-03-18T08:18:03Z) - IoTGAN: GAN Powered Camouflage Against Machine Learning Based IoT Device
Identification [15.672513473104031]
我々はIoTデバイスのトラフィックを操作するためにIoTGANという新しい攻撃戦略を提案する。
ニューラルネットワークベースの代用モデルを使用して、ターゲットモデルをブラックボックス設定に適合させる。
操作モデルは、代替モデルを回避するために、IoTデバイスのトラフィックに敵の摂動を追加するように訓練される。
論文 参考訳(メタデータ) (2022-01-10T10:54:11Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - SafeAMC: Adversarial training for robust modulation recognition models [53.391095789289736]
通信システムには、Deep Neural Networks(DNN)モデルに依存する変調認識など、多くのタスクがある。
これらのモデルは、逆方向の摂動、すなわち、誤分類を引き起こすために作られた知覚不能な付加音に影響を受けやすいことが示されている。
本稿では,自動変調認識モデルのロバスト性を高めるために,逆方向の摂動を伴うモデルを微調整する逆方向トレーニングを提案する。
論文 参考訳(メタデータ) (2021-05-28T11:29:04Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Federated Learning for Malware Detection in IoT Devices [35.00570367521957]
フェデレーション学習を使用してIoTデバイスに影響を与えるマルウェアを検出するフレームワークが紹介されている。
マルウェアの影響を受けながら、いくつかの実際のIoTデバイスのネットワークトラフィックをデータセットでモデリングするN-BaIoTが、提案したフレームワークの評価に使用されている。
論文 参考訳(メタデータ) (2021-04-15T13:14:22Z) - The Case for Retraining of ML Models for IoT Device Identification at
the Edge [0.026215338446228163]
ネットワークのエッジで利用可能なリソースを用いて、ネットワークの振る舞いに基づいてIoTデバイスを識別する方法を示す。
エッジにおいて、デバイス識別と分類をそれぞれ80%以上と90%以上精度で達成することができる。
論文 参考訳(メタデータ) (2020-11-17T13:01:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。