論文の概要: Privacy-Preserving Distributed Learning for Residential Short-Term Load
Forecasting
- arxiv url: http://arxiv.org/abs/2402.01546v1
- Date: Fri, 2 Feb 2024 16:39:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 14:13:39.464619
- Title: Privacy-Preserving Distributed Learning for Residential Short-Term Load
Forecasting
- Title(参考訳): 住宅短期負荷予測のためのプライバシー保護型分散学習
- Authors: Yi Dong, Yingjie Wang, Mariana Gama, Mustafa A. Mustafa, Geert
Deconinck, Xiaowei Huang
- Abstract要約: 電力システムの負荷データは、住宅ユーザの日常のルーチンを不注意に明らかにし、彼らの財産のセキュリティにリスクを及ぼす可能性がある。
我々はマルコフスイッチ方式の分散学習フレームワークを導入し、その収束は厳密な理論的解析によって実証される。
実世界の電力系統負荷データを用いたケーススタディにより,提案アルゴリズムの有効性を検証した。
- 参考スコア(独自算出の注目度): 11.185176107646956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the realm of power systems, the increasing involvement of residential
users in load forecasting applications has heightened concerns about data
privacy. Specifically, the load data can inadvertently reveal the daily
routines of residential users, thereby posing a risk to their property
security. While federated learning (FL) has been employed to safeguard user
privacy by enabling model training without the exchange of raw data, these FL
models have shown vulnerabilities to emerging attack techniques, such as Deep
Leakage from Gradients and poisoning attacks. To counteract these, we initially
employ a Secure-Aggregation (SecAgg) algorithm that leverages multiparty
computation cryptographic techniques to mitigate the risk of gradient leakage.
However, the introduction of SecAgg necessitates the deployment of additional
sub-center servers for executing the multiparty computation protocol, thereby
escalating computational complexity and reducing system robustness, especially
in scenarios where one or more sub-centers are unavailable. To address these
challenges, we introduce a Markovian Switching-based distributed training
framework, the convergence of which is substantiated through rigorous
theoretical analysis. The Distributed Markovian Switching (DMS) topology shows
strong robustness towards the poisoning attacks as well. Case studies employing
real-world power system load data validate the efficacy of our proposed
algorithm. It not only significantly minimizes communication complexity but
also maintains accuracy levels comparable to traditional FL methods, thereby
enhancing the scalability of our load forecasting algorithm.
- Abstract(参考訳): 電力システムの分野では、負荷予測アプリケーションへの住宅ユーザの関与が増加し、データプライバシに対する懸念が高まっている。
特に、負荷データは、住宅ユーザの日常のルーチンを不注意に明らかにし、彼らの財産のセキュリティにリスクを及ぼす可能性がある。
フェデレーション学習(federated learning, fl)は、生データの交換なしにモデルトレーニングを可能にすることによって、ユーザのプライバシを保護するために使用されているが、これらのflモデルは、勾配からの深い漏洩や中毒攻撃といった、新たな攻撃技術に対する脆弱性を示している。
これらの対策として,マルチパーティ計算暗号技術を活用したSecure-Agg(Secure-Agg)アルゴリズムを用いて,勾配リークのリスクを軽減する。
しかし、secaggの導入は、マルチパーティ計算プロトコルを実行するための追加のサブセンターサーバの配置を必要とするため、計算の複雑さが増し、システムの堅牢性が低下する。
これらの課題に対処するために,我々はマルコフスイッチングに基づく分散トレーニングフレームワークを導入し,その収束は厳密な理論解析によって決定される。
分散マルコフスイッチング(DMS)のトポロジーは、毒殺攻撃に対する強い堅牢性を示している。
実世界の電力系統負荷データを用いたケーススタディにより,提案アルゴリズムの有効性を検証した。
通信の複雑さを著しく低減するだけでなく、従来のFL法と同等の精度を維持し、負荷予測アルゴリズムのスケーラビリティを向上させる。
関連論文リスト
- Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - Homomorphic Encryption-Enabled Federated Learning for Privacy-Preserving Intrusion Detection in Resource-Constrained IoV Networks [20.864048794953664]
本稿では,IoV(Internet-of-Vehicles)におけるフェデレーション学習(FL)ベースの侵入検知システム(IDS)におけるデータプライバシ問題に,限られた計算資源で対処する新しい枠組みを提案する。
まず,同相暗号を用いた高効率なフレームワークを提案し,処理に中央集中型サーバにオフロードを必要とするデータを保護する。
我々は、FLベースのシステムの課題を暗号化データで処理するための効果的なトレーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-07-26T04:19:37Z) - Decentralized Federated Anomaly Detection in Smart Grids: A P2P Gossip Approach [0.44328715570014865]
本稿では,ランダムウォーク(Random Walk)とエピデミック(Epidemic)という2つの主要なゴシッププロトコルに基づく分散化フェデレーション異常検出手法を提案する。
従来のフェデレートラーニングに比べて,トレーニング時間の35%が顕著に改善されている。
論文 参考訳(メタデータ) (2024-07-20T10:45:06Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Fed-Credit: Robust Federated Learning with Credibility Management [18.349127735378048]
Federated Learning(FL)は、分散デバイスやデータソースのモデルトレーニングを可能にする、新興の機械学習アプローチである。
我々は、Fed-Creditと呼ばれる信頼性管理手法に基づく堅牢なFLアプローチを提案する。
その結果、比較的低い計算複雑性を維持しながら、敵攻撃に対する精度とレジリエンスが向上した。
論文 参考訳(メタデータ) (2024-05-20T03:35:13Z) - Enhancing Security in Federated Learning through Adaptive
Consensus-Based Model Update Validation [2.28438857884398]
本稿では,ラベルフリップ攻撃に対して,FL(Federated Learning)システムを構築するための高度なアプローチを提案する。
本稿では,適応的しきい値設定機構と統合されたコンセンサスに基づく検証プロセスを提案する。
以上の結果から,FLシステムのレジリエンスを高め,ラベルフリップ攻撃の顕著な緩和効果が示唆された。
論文 参考訳(メタデータ) (2024-03-05T20:54:56Z) - A Secure Federated Learning Framework for Residential Short Term Load
Forecasting [1.1254693939127909]
Federated Learning(FL)は、短期的な負荷予測のためにプライベートな生データを公開せずに、モデルの協調的な学習を可能にする機械学習の代替手段である。
標準FLは、障害や悪意のあるクライアントによって実行されるビザンチン攻撃として知られる、難解なサイバー脅威に対して、依然として脆弱である。
我々は、FLモデルとアーキテクチャのセキュリティを保護しつつ、個々のスマートメーターのデータのプライバシを保証する、最先端のプライベートなFLベースのフレームワークを開発する。
論文 参考訳(メタデータ) (2022-09-29T04:36:16Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。