論文の概要: Federated Learning for Malware Detection in IoT Devices
- arxiv url: http://arxiv.org/abs/2104.09994v1
- Date: Thu, 15 Apr 2021 13:14:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 06:59:51.130979
- Title: Federated Learning for Malware Detection in IoT Devices
- Title(参考訳): IoTデバイスにおけるマルウェア検出のためのフェデレーション学習
- Authors: Valerian Rey, Pedro Miguel S\'anchez S\'anchez, Alberto Huertas
Celdr\'an, G\'er\^ome Bovet, Martin Jaggi
- Abstract要約: フェデレーション学習を使用してIoTデバイスに影響を与えるマルウェアを検出するフレームワークが紹介されている。
マルウェアの影響を受けながら、いくつかの実際のIoTデバイスのネットワークトラフィックをデータセットでモデリングするN-BaIoTが、提案したフレームワークの評価に使用されている。
- 参考スコア(独自算出の注目度): 35.00570367521957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work investigates the possibilities enabled by federated learning
concerning IoT malware detection and studies security issues inherent to this
new learning paradigm. In this context, a framework that uses federated
learning to detect malware affecting IoT devices is presented. N-BaIoT, a
dataset modeling network traffic of several real IoT devices while affected by
malware, has been used to evaluate the proposed framework. Both supervised and
unsupervised federated models (multi-layer perceptron and autoencoder) able to
detect malware affecting seen and unseen IoT devices of N-BaIoT have been
trained and evaluated. Furthermore, their performance has been compared to two
traditional approaches. The first one lets each participant locally train a
model using only its own data, while the second consists of making the
participants share their data with a central entity in charge of training a
global model. This comparison has shown that the use of more diverse and large
data, as done in the federated and centralized methods, has a considerable
positive impact on the model performance. Besides, the federated models, while
preserving the participant's privacy, show similar results as the centralized
ones. As an additional contribution and to measure the robustness of the
federated approach, an adversarial setup with several malicious participants
poisoning the federated model has been considered. The baseline model
aggregation averaging step used in most federated learning algorithms appears
highly vulnerable to different attacks, even with a single adversary. The
performance of other model aggregation functions acting as countermeasures is
thus evaluated under the same attack scenarios. These functions provide a
significant improvement against malicious participants, but more efforts are
still needed to make federated approaches robust.
- Abstract(参考訳): 本研究は,IoTマルウェア検出に関するフェデレーション学習による可能性を調査し,この新しい学習パラダイムに固有のセキュリティ問題を研究する。
この文脈では、フェデレーション学習を使用してIoTデバイスに影響を与えるマルウェアを検出するフレームワークが提示される。
マルウェアの影響を受けながら、実際のIoTデバイスのネットワークトラフィックをデータセットでモデル化するN-BaIoTが、提案したフレームワークの評価に使用されている。
教師付きおよび教師なしのフェデレーションモデル(マルチ層パーセプトロンとオートエンコーダ)の両方が、N-BaIoTの目に見えないIoTデバイスに影響を及ぼすマルウェアを検知し、評価している。
さらに、パフォーマンスは従来の2つのアプローチと比較されている。
ひとつは、各参加者が自身のデータのみを使用してモデルをローカルにトレーニングすること、もうひとつは、グローバルモデルのトレーニングを担当する中央のエンティティとデータを共有させることです。
この比較は、フェデレーションおよび集中型手法で実施されたように、より多様で大規模なデータの使用がモデルの性能にかなりの影響を与えることを示した。
さらに、連合モデルは、参加者のプライバシーを保ちながら、集中型モデルと同様の結果を示す。
追加の貢献とフェデレーションアプローチの堅牢性を測定するために、フェデレーションモデルに毒を盛る悪意のある参加者が何人かいる敵対的な設定が検討されている。
ほとんどのフェデレーション学習アルゴリズムで使用されるベースラインモデルのアグリゲーションステップは、単一の敵であっても、異なる攻撃に対して非常に脆弱であるように見える。
そこで, 対策として機能する他のモデル集約関数の性能を, 同じ攻撃シナリオ下で評価する。
これらの機能は悪意のある参加者に対して大きな改善をもたらすが、フェデレーションアプローチを堅牢にするためには、まだまだ多くの努力が必要である。
関連論文リスト
- FedMADE: Robust Federated Learning for Intrusion Detection in IoT Networks Using a Dynamic Aggregation Method [7.842334649864372]
さまざまな分野にわたるIoT(Internet of Things)デバイスは、深刻なネットワークセキュリティ上の懸念をエスカレートしている。
サイバー攻撃分類のための従来の機械学習(ML)ベースの侵入検知システム(IDS)は、IoTデバイスからトラフィック分析のための集中サーバへのデータ送信を必要とし、深刻なプライバシー上の懸念を引き起こす。
我々はFedMADEという新しい動的アグリゲーション手法を紹介した。この手法はデバイスをトラフィックパターンによってクラスタリングし、その全体的なパフォーマンスに対する貢献に基づいてローカルモデルを集約する。
論文 参考訳(メタデータ) (2024-08-13T18:42:34Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Enhancing Intrusion Detection In Internet Of Vehicles Through Federated
Learning [0.0]
フェデレートされた学習は、複数のパーティが協力し、生データを共有せずに共有モデルを学習することを可能にする。
本稿では,CIC-IDS 2017データセットを用いたIoT(Internet of Vehicles)における侵入検知のための連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-23T04:04:20Z) - Discretization-based ensemble model for robust learning in IoT [8.33619265970446]
本稿では,機械学習モデルのセキュリティ向上を目的とした,離散化に基づくアンサンブルスタック手法を提案する。
我々は、ホワイトボックスやブラックボックス攻撃に対して、さまざまなMLベースのIoTデバイス識別モデルの性能を評価する。
論文 参考訳(メタデータ) (2023-07-18T03:48:27Z) - GowFed -- A novel Federated Network Intrusion Detection System [0.15469452301122172]
本研究は,Gower Dissimilarity行列とFederated Averagingを併用したネットワーク脅威検出システムであるGowFedを紹介する。
GowFedのアプローチは,(1)バニラバージョン,(2)アテンション機構を備えたバージョンなど,最先端の知識に基づいて開発されている。
全体として、GowFedは、産業レベルのネットワークにおけるネットワーク脅威を検出するためのフェデレートラーニングとガウワーの相違行列の併用に向けた最初の一歩となる。
論文 参考訳(メタデータ) (2022-10-28T23:53:37Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。