論文の概要: Privacy-Preserving Synthetic Smart Meters Data
- arxiv url: http://arxiv.org/abs/2012.04475v1
- Date: Sun, 6 Dec 2020 16:11:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:51:45.342352
- Title: Privacy-Preserving Synthetic Smart Meters Data
- Title(参考訳): プライバシー保護型スマートメータデータ
- Authors: Ganesh Del Grosso, Georg Pichler, Pablo Piantanida
- Abstract要約: 本稿では,原典を忠実に模倣する合成電力消費サンプルを生成する方法を提案する。
本手法はGAN(Generative Adversarial Networks)に基づく。
ニューラルネットワークのトレーニングセットのメンバーに提供されるプライバシー保証について検討する。
- 参考スコア(独自算出の注目度): 24.29870358870313
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Power consumption data is very useful as it allows to optimize power grids,
detect anomalies and prevent failures, on top of being useful for diverse
research purposes. However, the use of power consumption data raises
significant privacy concerns, as this data usually belongs to clients of a
power company. As a solution, we propose a method to generate synthetic power
consumption samples that faithfully imitate the originals, but are detached
from the clients and their identities. Our method is based on Generative
Adversarial Networks (GANs). Our contribution is twofold. First, we focus on
the quality of the generated data, which is not a trivial task as no standard
evaluation methods are available. Then, we study the privacy guarantees
provided to members of the training set of our neural network. As a minimum
requirement for privacy, we demand our neural network to be robust to
membership inference attacks, as these provide a gateway for further attacks in
addition to presenting a privacy threat on their own. We find that there is a
compromise to be made between the privacy and the performance provided by the
algorithm.
- Abstract(参考訳): 電力消費データは、電力グリッドを最適化し、異常を検出し、障害を防止できるため、様々な研究目的のために有用である。
しかし、電力消費データの使用は、通常このデータは電力会社のクライアントに属するため、重大なプライバシー上の懸念を生じさせる。
そこで,本研究では,オリジナルを忠実に模倣した合成消費電力サンプルを生成する手法を提案する。
本手法はGAN(Generative Adversarial Networks)に基づく。
私たちの貢献は2倍です。
まず、標準評価方法がないため、簡単な作業ではない生成データの品質に焦点を当てる。
次に、ニューラルネットワークのトレーニングセットのメンバーに提供されるプライバシー保証について検討する。
プライバシの最低限の要件として、私たちはニューラルネットワークに対して、メンバシップ推論攻撃に対して堅牢であることを要求しています。
プライバシとアルゴリズムが提供するパフォーマンスとの間には,妥協が必要なことが分かりました。
関連論文リスト
- TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Smooth Anonymity for Sparse Binary Matrices [84.60886611165573]
この作業では、スパースデータセット全体を第三者とプライベートに操作し、共有することを目的としています。
実際、差分プライバシーは、プライバシの金の標準として現れていますが、スパースデータセットの共有に関しては、主要な結果の1つとして、偏微分プライベートメカニズムが極めて弱いプライバシ保証を持つ運命にあることを証明しています。
我々は、スムーズな$k$匿名性を示し、スムーズな$k$匿名性を提供する単純なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Privacy for Free: How does Dataset Condensation Help Privacy? [21.418263507735684]
私たちは、データセット凝縮(DC)が、プライベートデータ生成のために従来のデータジェネレータを置き換えるためのより良いソリューションであることも確認しています。
我々は、DC合成データの視覚的プライバシとメンバシップのプライバシを、損失ベースと最先端の可能性ベースのメンバシップ推論攻撃の両方を起動することによって実証的に検証する。
論文 参考訳(メタデータ) (2022-06-01T05:39:57Z) - Large-Scale Privacy-Preserving Network Embedding against Private Link
Inference Attacks [12.434976161956401]
プライバシ保護ネットワークがプライベートリンク推論攻撃に対して組み込まれるという,新たな問題に対処する。
本稿では,リンクの追加や削除によるオリジナルのネットワークの摂動について提案する。また,この摂動ネットワーク上で発生した埋め込みは,プライベートリンクに関する情報をほとんど漏らすことなく,様々な下流タスクに高いユーティリティを保持することができることを期待する。
論文 参考訳(メタデータ) (2022-05-28T13:59:39Z) - Privacy-Utility Trades in Crowdsourced Signal Map Obfuscation [20.58763760239068]
クラウドソースセルラー信号強度測定は、ネットワーク性能を改善するために信号マップを生成するために使用できる。
我々は、データがモバイルデバイスを離れる前に、そのようなデータを難読化することを検討する。
評価結果は,多種多様な実世界の信号マップデータセットに基づいて,適切なプライバシとユーティリティを同時に実現可能であることを示す。
論文 参考訳(メタデータ) (2022-01-13T03:46:22Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Deep Directed Information-Based Learning for Privacy-Preserving Smart
Meter Data Release [30.409342804445306]
本稿では,時系列データとスマートメータ(SM)電力消費測定の文脈における問題点について検討する。
我々は、考慮された設定において、より意味のあるプライバシーの尺度として、指向情報(DI)を導入します。
最悪のシナリオにおけるSMs測定による実世界のデータセットに関する実証的研究は、プライバシとユーティリティの既存のトレードオフを示している。
論文 参考訳(メタデータ) (2020-11-20T13:41:11Z) - Privacy Adversarial Network: Representation Learning for Mobile Data
Privacy [33.75500773909694]
モバイルユーザのためのクラウドベースのインテリジェントサービスの増加は、プロバイダに送信するユーザデータを要求している。
以前の作業では、例えばノイズを追加して識別情報を削除したり、匿名化された特徴などのデータから抽出された表現を送信したりするといった、データの難読化が行われていた。
私たちは、敵対的な学習を活用して、プライバシとユーティリティのバランスを改善する。
論文 参考訳(メタデータ) (2020-06-08T09:42:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。