論文の概要: A Crowdsensing Intrusion Detection Dataset For Decentralized Federated Learning Models
- arxiv url: http://arxiv.org/abs/2507.13313v1
- Date: Thu, 17 Jul 2025 17:33:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.595865
- Title: A Crowdsensing Intrusion Detection Dataset For Decentralized Federated Learning Models
- Title(参考訳): 分散型フェデレーション学習モデルのための集団侵入検出データセット
- Authors: Chao Feng, Alberto Huertas Celdran, Jing Han, Heqing Ren, Xi Cheng, Zien Zeng, Lucas Krauter, Gerome Bovet, Burkhard Stiller,
- Abstract要約: このデータセットは、ベニグニと8つのマルウェアファミリーの行動記録を含む。
21,582,484件のオリジナルレコードがシステムコール、ファイルシステムのアクティビティ、リソース使用状況、カーネルイベント、入出力イベント、ネットワークレコードから収集された。
DFLプラットフォームの実験は、従来の機械学習(ML)、集中型フェデレーション学習(CFL)、DFLを異なるノード数、トポロジ、データ分散で比較する。
- 参考スコア(独自算出の注目度): 10.44510410356016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a dataset and experimental study for decentralized federated learning (DFL) applied to IoT crowdsensing malware detection. The dataset comprises behavioral records from benign and eight malware families. A total of 21,582,484 original records were collected from system calls, file system activities, resource usage, kernel events, input/output events, and network records. These records were aggregated into 30-second windows, resulting in 342,106 features used for model training and evaluation. Experiments on the DFL platform compare traditional machine learning (ML), centralized federated learning (CFL), and DFL across different node counts, topologies, and data distributions. Results show that DFL maintains competitive performance while preserving data locality, outperforming CFL in most settings. This dataset provides a solid foundation for studying the security of IoT crowdsensing environments.
- Abstract(参考訳): 本稿では,IoTクラウドセンシングマルウェア検出に応用した分散フェデレーション学習(DFL)のデータセットと実験的検討を紹介する。
このデータセットは、ベニグニと8つのマルウェアファミリーの行動記録を含む。
21,582,484件のオリジナルレコードがシステムコール、ファイルシステムのアクティビティ、リソース使用状況、カーネルイベント、入出力イベント、ネットワークレコードから収集された。
これらの記録は30秒のウィンドウに集約され、モデルトレーニングと評価に342,106の機能が使用された。
DFLプラットフォームの実験は、従来の機械学習(ML)、集中型フェデレーション学習(CFL)、DFLを異なるノード数、トポロジ、データ分散で比較する。
その結果、DFLはデータの局所性を保ちながら競合性能を維持しており、ほとんどの設定ではCFLよりも優れていた。
このデータセットは、IoTクラウドセンシング環境のセキュリティを研究するための確かな基盤を提供する。
関連論文リスト
- Demo: A Practical Testbed for Decentralized Federated Learning on Physical Edge Devices [7.665158937084105]
フェデレートラーニング(FL)は、生データを共有せずに協調的なモデルトレーニングを可能にし、参加者のプライバシを保存する。
分散FL(DFL)は中央サーバへの依存をなくし、従来のFLパラダイムに固有の単一障害点を緩和する。
この作業はRaspberry PiやJetson Nanoといったエッジデバイスを使って物理的なテストベッドを設計し、デプロイする。
論文 参考訳(メタデータ) (2025-05-12T20:00:45Z) - Performance Analysis of Decentralized Federated Learning Deployments [1.7249361224827533]
これらの課題に対処するために、分散フェデレートラーニング(DFL)が導入されている。
中央サーバに頼ることなく、参加するデバイス間の直接的なコラボレーションを促進する。
本研究は、DFLモデルの収束と一般化能力に影響を与える決定的な要因について考察する。
論文 参考訳(メタデータ) (2025-03-14T19:37:13Z) - SemiDFL: A Semi-Supervised Paradigm for Decentralized Federated Learning [12.542161138042632]
分散連合学習(DFL)は,中央サーバに頼らずに,接続されたクライアント間の協調モデルトレーニングを実現する。
DFLに関する既存の作業の多くは、各クライアントがローカルトレーニングに十分なラベル付きデータを持っていることを前提として、教師付き学習に重点を置いている。
そこで本研究では,データ空間とモデル空間のコンセンサスを確立することで,SSLシナリオにおけるDFL性能を向上させる,最初の半教師付きDFL手法であるSemiDFLを提案する。
論文 参考訳(メタデータ) (2024-12-18T08:12:55Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Federated Split Learning with Only Positive Labels for
resource-constrained IoT environment [4.055662817794178]
分散コラボレーティブ機械学習(DCML)は、ディープラーニングモデルをトレーニングするためのIoT(Internet of Things)ドメインにおいて、有望な方法である。
分割学習 (SFL) は, デバイスが限られた計算能力を持つ場合に, 効率的な学習とテストに最も適している。
SFPLは、リソース制約のIoTデバイスが正のラベル付きデータしか持たない場合、SFLよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-25T05:33:06Z) - Stochastic Clustered Federated Learning [21.811496586350653]
本稿では,一般の非IID問題に対する新しいクラスタ化フェデレーション学習手法であるStoCFLを提案する。
詳細は、StoCFLは、任意の割合のクライアント参加と新しく加入したクライアントをサポートする柔軟なCFLフレームワークを実装しています。
その結果,StoCFLはクラスタ数の不明な場合でも,有望なクラスタ結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-03-02T01:39:16Z) - Plankton-FL: Exploration of Federated Learning for Privacy-Preserving
Training of Deep Neural Networks for Phytoplankton Classification [81.04987357598802]
本研究では,植物プランクトン分類のための深層ニューラルネットワークのプライバシー保護トレーニングにフェデレート学習を活用する可能性を検討する。
我々は2つの異なるフェデレーション学習フレームワーク、フェデレーション学習(FL)と相互排他的FL(ME-FL)をシミュレートする。
本研究では,植物プランクトンモニタリングにおけるフェデレート学習の可能性と可能性について実験的に検証した。
論文 参考訳(メタデータ) (2022-12-18T02:11:03Z) - Multi-Edge Server-Assisted Dynamic Federated Learning with an Optimized
Floating Aggregation Point [51.47520726446029]
協調エッジ学習(CE-FL)は、分散機械学習アーキテクチャである。
CE-FLの過程をモデル化し,分析訓練を行った。
実世界のテストベッドから収集したデータを用いて,本フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-03-26T00:41:57Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - FedML: A Research Library and Benchmark for Federated Machine Learning [55.09054608875831]
フェデレート・ラーニング(Federated Learning, FL)は、機械学習の分野で急速に成長している研究分野である。
既存のFLライブラリは多様なアルゴリズム開発を適切にサポートできない。
FLアルゴリズムの開発と公正な性能比較を容易にするための,オープンな研究ライブラリとベンチマークであるFedMLを紹介する。
論文 参考訳(メタデータ) (2020-07-27T13:02:08Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。