論文の概要: Privacy Preserving in Non-Intrusive Load Monitoring: A Differential
Privacy Perspective
- arxiv url: http://arxiv.org/abs/2011.06205v1
- Date: Thu, 12 Nov 2020 05:10:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 08:02:13.299305
- Title: Privacy Preserving in Non-Intrusive Load Monitoring: A Differential
Privacy Perspective
- Title(参考訳): 非インタラクティブな負荷監視におけるプライバシ保護 - 異なるプライバシの観点から
- Authors: Haoxiang Wang and Jiasheng Zhang and Chenbei Lu and Chenye Wu
- Abstract要約: NILM推論の理論的精度と差分プライバシーパラメータのギャップを橋渡しする。
マルチショットNILM問題を解くための階層的枠組みを提案する。
- 参考スコア(独自算出の注目度): 7.60875347889224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Smart meter devices enable a better understanding of the demand at the
potential risk of private information leakage. One promising solution to
mitigating such risk is to inject noises into the meter data to achieve a
certain level of differential privacy. In this paper, we cast one-shot
non-intrusive load monitoring (NILM) in the compressive sensing framework, and
bridge the gap between theoretical accuracy of NILM inference and differential
privacy's parameters. We then derive the valid theoretical bounds to offer
insights on how the differential privacy parameters affect the NILM
performance. Moreover, we generalize our conclusions by proposing the
hierarchical framework to solve the multi-shot NILM problem. Numerical
experiments verify our analytical results and offer better physical insights of
differential privacy in various practical scenarios. This also demonstrates the
significance of our work for the general privacy preserving mechanism design.
- Abstract(参考訳): スマートメータデバイスは、プライベートな情報漏洩の潜在的なリスクにおける需要の理解を深める。
このようなリスクを軽減する有望な解決策の1つは、一定のレベルの差分プライバシーを達成するためにメーターデータにノイズを注入することである。
本稿では,圧縮センシングフレームワークに一発非侵入負荷モニタリング(NILM)を投入し,NILM推論の理論的精度と差分プライバシのパラメータとのギャップを埋める。
次に、有効な理論的境界を導出し、差分プライバシーパラメータがNILMの性能に与える影響について考察する。
さらに,マルチショットNILM問題を解くために階層的枠組みを提案することで,結論を一般化する。
数値実験により解析結果が検証され,様々な実用シナリオにおける微分プライバシーの物理的洞察が得られた。
また,一般のプライバシー保護機構設計における作業の重要性も示している。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - The Effect of Quantization in Federated Learning: A Rényi Differential Privacy Perspective [15.349042342071439]
フェデレートラーニング(FL)は、分散データを使用したプライバシ保護機械学習を大いに約束する新興パラダイムである。
プライバシーを強化するために、FLはモデルの重み付けにガウスノイズを加えることを含む差分プライバシー(DP)と組み合わせることができる。
本研究では,FLシステムにおける量子化がプライバシに与える影響について検討する。
論文 参考訳(メタデータ) (2024-05-16T13:50:46Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - On the Statistical Complexity of Estimation and Testing under Privacy Constraints [17.04261371990489]
差分プライバシー下での統計的テストのパワーをプラグアンドプレイ方式で特徴付ける方法を示す。
プライバシ保護のレベルが非常に高い場合にのみ、プライバシの維持が顕著なパフォーマンス低下をもたらすことを示す。
最後に,プライベート凸解法であるDP-SGLDアルゴリズムを高信頼度で最大推定できることを示した。
論文 参考訳(メタデータ) (2022-10-05T12:55:53Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - A Differentially Private Framework for Deep Learning with Convexified
Loss Functions [4.059849656394191]
差分プライバシー(DP)は、基礎となるトレーニングセットのプライバシーを保護するためにディープラーニングに応用されている。
既存のDP実践は、客観的摂動、勾配摂動、出力摂動の3つのカテゴリに分類される。
本稿では,DPノイズをランダムにサンプリングしたニューロンに注入し,新しい出力摂動機構を提案する。
論文 参考訳(メタデータ) (2022-04-03T11:10:05Z) - DP-UTIL: Comprehensive Utility Analysis of Differential Privacy in
Machine Learning [3.822543555265593]
差別化プライバシ(DP)は、プライバシー漏洩を理由とする厳格な形式主義として浮上している。
機械学習(ML)では、DPはトレーニング例の限定/開示に使用されている。
ディープニューラルネットワークの場合、勾配の摂動はプライバシリークを低くする。
論文 参考訳(メタデータ) (2021-12-24T08:40:28Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。