論文の概要: Privacy-Preserving Load Forecasting via Personalized Model Obfuscation
- arxiv url: http://arxiv.org/abs/2312.00036v1
- Date: Tue, 21 Nov 2023 03:03:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 03:56:15.610257
- Title: Privacy-Preserving Load Forecasting via Personalized Model Obfuscation
- Title(参考訳): パーソナライズされたモデル難読化によるプライバシ保護負荷予測
- Authors: Shourya Bose, Yu Zhang, Kibaek Kim
- Abstract要約: 本稿では,異種データを用いたフェデレーション学習で訓練した短期負荷予測モデルの性能課題について述べる。
提案するアルゴリズムであるプライバシー保護フェデレートラーニング(PPFL)では,各スマートメータでのローカライズトレーニングのためのパーソナライズレイヤが組み込まれている。
- 参考スコア(独自算出の注目度): 4.420464017266168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widespread adoption of smart meters provides access to detailed and
localized load consumption data, suitable for training building-level load
forecasting models. To mitigate privacy concerns stemming from model-induced
data leakage, federated learning (FL) has been proposed. This paper addresses
the performance challenges of short-term load forecasting models trained with
FL on heterogeneous data, emphasizing privacy preservation through model
obfuscation. Our proposed algorithm, Privacy Preserving Federated Learning
(PPFL), incorporates personalization layers for localized training at each
smart meter. Additionally, we employ a differentially private mechanism to
safeguard against data leakage from shared layers. Simulations on the NREL
ComStock dataset corroborate the effectiveness of our approach.
- Abstract(参考訳): スマートメーターの普及により、ビルレベルの負荷予測モデルのトレーニングに適した、詳細かつ局所的な負荷消費データへのアクセスが可能になる。
モデルによるデータ漏洩によるプライバシー問題を軽減するため,フェデレートラーニング(FL)が提案されている。
本稿では,FLを用いて訓練した短期負荷予測モデルの異種データに対する性能課題について述べる。
提案するアルゴリズムであるprivacy preservation federated learning(ppfl)では,各スマートメータの局所化トレーニングにパーソナライズレイヤを取り入れている。
さらに,共有層からのデータの漏洩を防止するために,差分プライベート機構を採用している。
NREL ComStockデータセットのシミュレーションは、我々のアプローチの有効性を裏付けるものである。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Addressing Heterogeneity in Federated Load Forecasting with Personalization Layers [3.933147844455233]
PL-FLと呼ばれる一般的なフレームワークにおいて,負荷予測のためのパーソナライズレイヤを提案する。
PL-FLはFLよりも通信帯域幅が小さいため、FLと純粋に局所訓練に優れることを示す。
論文 参考訳(メタデータ) (2024-04-01T22:53:09Z) - Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - PRIOR: Personalized Prior for Reactivating the Information Overlooked in
Federated Learning [16.344719695572586]
各クライアントのグローバルモデルにパーソナライズされた事前知識を注入する新しいスキームを提案する。
提案したアプローチの中心は,Bregman Divergence (pFedBreD) による PFL フレームワークである。
提案手法は5つのデータセット上での最先端のパフォーマンスに到達し、8つのベンチマークで最大3.5%性能を向上する。
論文 参考訳(メタデータ) (2023-10-13T15:21:25Z) - Federated Short-Term Load Forecasting with Personalization Layers for
Heterogeneous Clients [0.7252027234425334]
パーソナライズ層を扱えるパーソナライズされたFLアルゴリズム(PL-FL)を提案する。
PL-FLはArgonne Privacy-Preserving Federated Learningパッケージを使って実装されている。
NREL ComStockデータセットでトレーニングしたモデルの予測性能を検証した。
論文 参考訳(メタデータ) (2023-09-22T21:57:52Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Prediction-Oriented Bayesian Active Learning [51.426960808684655]
予測情報ゲイン(EPIG)は、パラメータではなく予測空間における情報ゲインを測定する。
EPIGは、さまざまなデータセットやモデルにわたるBALDと比較して、予測パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-04-17T10:59:57Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - DER Forecast using Privacy Preserving Federated Learning [0.0]
分散機械学習アプローチであるFederated Learningを提案し、IoTノードのネットワークを使用してDER予測を実行する。
提案手法が消費者プライバシ保護の正確な予測に繋がることを示すため,1000 DER を含むシミュレーション研究を考察する。
論文 参考訳(メタデータ) (2021-07-07T14:25:43Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。