論文の概要: Adversarial Predictions of Data Distributions Across Federated
Internet-of-Things Devices
- arxiv url: http://arxiv.org/abs/2308.14658v1
- Date: Mon, 28 Aug 2023 15:40:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 13:14:56.137917
- Title: Adversarial Predictions of Data Distributions Across Federated
Internet-of-Things Devices
- Title(参考訳): 相互接続型インターネットデバイスにおけるデータ分布の逆予測
- Authors: Samir Rajani, Dario Dematties, Nathaniel Hudson, Kyle Chard, Nicola
Ferrier, Rajesh Sankaran, Peter Beckman
- Abstract要約: フェデレーション・ラーニング(FL)は、分散インターネット・オブ・シング(IoT)デバイス間で機械学習モデルをトレーニングするためのデフォルトのアプローチになりつつある。
本研究では、FLで共有されるモデルウェイトが、IoTデバイスのローカルデータ配信に関する情報を明らかにすることを実証する。
この漏洩は、分散システムの悪意あるアクターに機密情報を暴露する可能性がある。
- 参考スコア(独自算出の注目度): 3.119217042097909
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) is increasingly becoming the default approach for
training machine learning models across decentralized Internet-of-Things (IoT)
devices. A key advantage of FL is that no raw data are communicated across the
network, providing an immediate layer of privacy. Despite this, recent works
have demonstrated that data reconstruction can be done with the locally trained
model updates which are communicated across the network. However, many of these
works have limitations with regard to how the gradients are computed in
backpropagation. In this work, we demonstrate that the model weights shared in
FL can expose revealing information about the local data distributions of IoT
devices. This leakage could expose sensitive information to malicious actors in
a distributed system. We further discuss results which show that injecting
noise into model weights is ineffective at preventing data leakage without
seriously harming the global model accuracy.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散IoT(Internet-of-Things)デバイス間で機械学習モデルをトレーニングするためのデフォルトのアプローチになりつつある。
FLの主な利点は、生データはネットワーク間で通信されず、直ちにプライバシー層を提供することである。
これにもかかわらず、最近の研究は、ローカルにトレーニングされたモデル更新でデータ再構成が可能であることを実証している。
しかし、これらの作品の多くは、勾配がバックプロパゲーションでどのように計算されるかに関して制限がある。
本研究では, flで共有されるモデル重みが, iotデバイスのローカルデータ分布に関する情報を露呈できることを実証する。
この漏洩は、分散システムの悪意あるアクターに機密情報を暴露する可能性がある。
さらに,モデル重みにノイズを注入することは,グローバルモデルの精度を損なうことなくデータ漏洩を防止するには有効ではないことを示す結果についても考察する。
関連論文リスト
- Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Unsupervised anomalies detection in IIoT edge devices networks using
federated learning [0.0]
分散機械学習アプローチとしてのフェデレーション学習(FL)は、データそのものを収集したデバイス上で、マシンラーニングモデルのトレーニングを実行する。
本稿では、最近のIoT/IIoTデバイスネットワークを表すデータセットにFLの利点を活用し、Fedavgアルゴリズムを実装した。
また,障害デバイスがトレーニングのすべての段階で参加していない場合,トレーニング中に発生する不公平さなど,Fedavgの欠点も評価した。
論文 参考訳(メタデータ) (2023-08-23T14:53:38Z) - Federated Deep Learning for Intrusion Detection in IoT Networks [1.3097853961043058]
AIベースの侵入検知システム(IDS)を分散IoTシステムに実装する一般的なアプローチは、中央集権的な方法である。
このアプローチはデータのプライバシを侵害し、IDSのスケーラビリティを禁止します。
我々は、実世界の実験代表を設計し、FLベースのIDSの性能を評価する。
論文 参考訳(メタデータ) (2023-06-05T09:08:24Z) - FLARE: Detection and Mitigation of Concept Drift for Federated Learning
based IoT Deployments [2.7776688429637466]
FLAREは、トレーニングデータを条件付きで転送し、エッジとセンサのエンドポイント間でモデルをデプロイする、軽量なデュアルスケジューリングFLフレームワークである。
固定間隔スケジューリング法と比較して,FLAREはエッジノードとセンサノード間で交換されるデータ量を大幅に削減できることを示す。
少なくとも16倍のレイテンシで、コンセプトドリフトを反応的に検出できる。
論文 参考訳(メタデータ) (2023-05-15T10:09:07Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Fed-FSNet: Mitigating Non-I.I.D. Federated Learning via Fuzzy
Synthesizing Network [19.23943687834319]
フェデレートラーニング(FL)は、将来性のあるプライバシ保護分散機械学習フレームワークとして登場した。
我々は、Fed-FSNetと呼ばれる新しいFLトレーニングフレームワークを提案し、Fed-FSNet(Fed-FSNet)を適切に設計し、非I.I.D.のオープンソース問題を軽減する。
論文 参考訳(メタデータ) (2022-08-21T18:40:51Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Federated Learning With Quantized Global Model Updates [84.55126371346452]
モバイル端末がローカルデータセットを使用してグローバルモデルをトレーニングできるフェデレーション学習について検討する。
本稿では,大域的モデルと局所的モデル更新の両方を,送信前に量子化する損失FL(LFL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-18T16:55:20Z) - Federated Learning with Cooperating Devices: A Consensus Approach for
Massive IoT Networks [8.456633924613456]
分散システムにおける機械学習モデルをトレーニングするための新しいパラダイムとして、フェデレートラーニング(FL)が登場している。
提案するFLアルゴリズムは,ネットワーク内のデータ操作を行うデバイスとの協調を利用して,完全に分散された(あるいはサーバレス)学習手法を提案する。
このアプローチは、分散接続とコンピューティングを特徴とするネットワークを超えて、5G 内で FL を統合するための基盤となる。
論文 参考訳(メタデータ) (2019-12-27T15:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。