論文の概要: Privacy-Aware Time-Series Data Sharing with Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2003.02685v2
- Date: Tue, 23 Jun 2020 11:52:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 13:44:47.395340
- Title: Privacy-Aware Time-Series Data Sharing with Deep Reinforcement Learning
- Title(参考訳): 深層強化学習によるプライバシーを考慮した時系列データ共有
- Authors: Ecenaz Erdemir, Pier Luigi Dragotti and Deniz Gunduz
- Abstract要約: 時系列データ共有におけるプライバシーユーティリティトレードオフ(PUT)について検討する。
現時点でのプライバシを保存する方法は、トレースレベルでかなりの量の情報をリークする可能性がある。
我々は、ユーザの真のデータシーケンスの歪んだバージョンを、信頼できない第三者と共有することを検討する。
- 参考スコア(独自算出の注目度): 33.42328078385098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Internet of things (IoT) devices are becoming increasingly popular thanks to
many new services and applications they offer. However, in addition to their
many benefits, they raise privacy concerns since they share fine-grained
time-series user data with untrusted third parties. In this work, we study the
privacy-utility trade-off (PUT) in time-series data sharing. Existing
approaches to PUT mainly focus on a single data point; however, temporal
correlations in time-series data introduce new challenges. Methods that
preserve the privacy for the current time may leak significant amount of
information at the trace level as the adversary can exploit temporal
correlations in a trace. We consider sharing the distorted version of a user's
true data sequence with an untrusted third party. We measure the privacy
leakage by the mutual information between the user's true data sequence and
shared version. We consider both the instantaneous and average distortion
between the two sequences, under a given distortion measure, as the utility
loss metric. To tackle the history-dependent mutual information minimization,
we reformulate the problem as a Markov decision process (MDP), and solve it
using asynchronous actor-critic deep reinforcement learning (RL). We evaluate
the performance of the proposed solution in location trace privacy on both
synthetic and GeoLife GPS trajectory datasets. For the latter, we show the
validity of our solution by testing the privacy of the released location
trajectory against an adversary network.
- Abstract(参考訳): モノのインターネット(IoT)デバイスは、多くの新しいサービスやアプリケーションによって、ますます人気が高まっている。
しかし、多くのメリットに加えて、詳細な時系列ユーザーデータを信頼できない第三者と共有しているため、プライバシー上の懸念も高まる。
本研究では、時系列データ共有におけるプライバシーユーティリティトレードオフ(PUT)について検討する。
既存のアプローチでは、主に単一のデータポイントに焦点を当てているが、時系列データの時間的相関は新しい課題をもたらす。
現時点のプライバシを保護する方法は、敵がトレースの時間的相関を活用できるため、トレースレベルでかなりの量の情報をリークする可能性がある。
信頼できない第三者とユーザの真のデータシーケンスの歪んだバージョンを共有することを検討する。
ユーザの真のデータシーケンスと共有バージョン間の相互情報によるプライバシー漏洩を測定する。
我々は,2つの列間の瞬時および平均歪みを,所定の歪み尺度の下で有効損失指標として検討する。
歴史に依存した相互情報の最小化に取り組むため、マルコフ決定過程(MDP)として問題を再構成し、非同期アクター批判深層強化学習(RL)を用いて解決する。
合成GPSとGeoLifeGPSの両方のトラジェクトリデータセットにおける位置追跡プライバシーにおける提案手法の性能を評価する。
後者では, 敵ネットワークに対して, 解放された位置軌跡のプライバシをテストすることで, 解決策の有効性を示す。
関連論文リスト
- A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Shuffled Differentially Private Federated Learning for Time Series Data
Analytics [10.198481976376717]
時系列データのためのプライバシー保護フェデレーション学習アルゴリズムを開発した。
具体的には、クライアントにプライバシ保護信頼境界を拡張するために、ローカルな差分プライバシーを使用します。
また、局所的な差分プライバシーを活用することによって生じる精度低下を軽減し、プライバシーの増幅を実現するためのシャッフル手法も取り入れた。
論文 参考訳(メタデータ) (2023-07-30T10:30:38Z) - PMP: Privacy-Aware Matrix Profile against Sensitive Pattern Inference
for Time Series [12.855499575586753]
本稿では,長文パターンに対する悪質な推論の防止という,新たなプライバシ保護問題を提案する。
マトリックスプロファイル(MP)は具体的な形状の漏洩を防止できるが,MPインデックスの正準相関はなおも感度の高い長パターンの位置を明らかにすることができる。
局所相関を摂動し,MPインデックスベクトルの正準相関を破るPMP(Privacy-Aware Matrix Profile)を提案する。
論文 参考訳(メタデータ) (2023-01-04T22:11:38Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Active Privacy-Utility Trade-off Against Inference in Time-Series Data
Sharing [29.738666406095074]
我々は、誠実だが信頼できるサービスプロバイダ(SP)のサービスに見返りに、個人情報を含むデータを公開しているユーザについて検討する。
両問題を部分的に観測可能なマルコフ決定過程(POMDP)として定式化し,アクター・クリティック(A2C)深部強化学習(DRL)を用いて数値的に解いた。
本研究では,合成データと喫煙活動データセットの両方に対するポリシーのプライバシユーティリティトレードオフ(PUT)を評価し,長い短期記憶(LSTM)ニューラルネットワークでモデル化されたSPのアクティビティ検出精度をテストすることにより,その妥当性を示す。
論文 参考訳(メタデータ) (2022-02-11T18:57:31Z) - Deep Directed Information-Based Learning for Privacy-Preserving Smart
Meter Data Release [30.409342804445306]
本稿では,時系列データとスマートメータ(SM)電力消費測定の文脈における問題点について検討する。
我々は、考慮された設定において、より意味のあるプライバシーの尺度として、指向情報(DI)を導入します。
最悪のシナリオにおけるSMs測定による実世界のデータセットに関する実証的研究は、プライバシとユーティリティの既存のトレードオフを示している。
論文 参考訳(メタデータ) (2020-11-20T13:41:11Z) - Hide-and-Seek Privacy Challenge [88.49671206936259]
NeurIPS 2020 Hide-and-Seek Privacy Challengeは、両方の問題を解決するための新しい2トラックの競争だ。
我々の頭から頭までのフォーマットでは、新しい高品質な集中ケア時系列データセットを用いて、合成データ生成トラック(「ヒッシャー」)と患者再識別トラック(「シーカー」)の参加者が直接対決する。
論文 参考訳(メタデータ) (2020-07-23T15:50:59Z) - A Critical Overview of Privacy-Preserving Approaches for Collaborative
Forecasting [0.0]
異なるデータ所有者間の協力は、予測品質の改善につながる可能性がある。
ビジネス上の競争要因と個人データ保護の問題から、データ所有者はデータの共有を望まないかもしれない。
本稿では、現状を解析し、データプライバシを保証する既存の方法の欠点をいくつか明らかにする。
論文 参考訳(メタデータ) (2020-04-20T20:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。