論文の概要: Privacy-Aware Time-Series Data Sharing with Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2003.02685v2
- Date: Tue, 23 Jun 2020 11:52:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 13:44:47.395340
- Title: Privacy-Aware Time-Series Data Sharing with Deep Reinforcement Learning
- Title(参考訳): 深層強化学習によるプライバシーを考慮した時系列データ共有
- Authors: Ecenaz Erdemir, Pier Luigi Dragotti and Deniz Gunduz
- Abstract要約: 時系列データ共有におけるプライバシーユーティリティトレードオフ(PUT)について検討する。
現時点でのプライバシを保存する方法は、トレースレベルでかなりの量の情報をリークする可能性がある。
我々は、ユーザの真のデータシーケンスの歪んだバージョンを、信頼できない第三者と共有することを検討する。
- 参考スコア(独自算出の注目度): 33.42328078385098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Internet of things (IoT) devices are becoming increasingly popular thanks to
many new services and applications they offer. However, in addition to their
many benefits, they raise privacy concerns since they share fine-grained
time-series user data with untrusted third parties. In this work, we study the
privacy-utility trade-off (PUT) in time-series data sharing. Existing
approaches to PUT mainly focus on a single data point; however, temporal
correlations in time-series data introduce new challenges. Methods that
preserve the privacy for the current time may leak significant amount of
information at the trace level as the adversary can exploit temporal
correlations in a trace. We consider sharing the distorted version of a user's
true data sequence with an untrusted third party. We measure the privacy
leakage by the mutual information between the user's true data sequence and
shared version. We consider both the instantaneous and average distortion
between the two sequences, under a given distortion measure, as the utility
loss metric. To tackle the history-dependent mutual information minimization,
we reformulate the problem as a Markov decision process (MDP), and solve it
using asynchronous actor-critic deep reinforcement learning (RL). We evaluate
the performance of the proposed solution in location trace privacy on both
synthetic and GeoLife GPS trajectory datasets. For the latter, we show the
validity of our solution by testing the privacy of the released location
trajectory against an adversary network.
- Abstract(参考訳): モノのインターネット(IoT)デバイスは、多くの新しいサービスやアプリケーションによって、ますます人気が高まっている。
しかし、多くのメリットに加えて、詳細な時系列ユーザーデータを信頼できない第三者と共有しているため、プライバシー上の懸念も高まる。
本研究では、時系列データ共有におけるプライバシーユーティリティトレードオフ(PUT)について検討する。
既存のアプローチでは、主に単一のデータポイントに焦点を当てているが、時系列データの時間的相関は新しい課題をもたらす。
現時点のプライバシを保護する方法は、敵がトレースの時間的相関を活用できるため、トレースレベルでかなりの量の情報をリークする可能性がある。
信頼できない第三者とユーザの真のデータシーケンスの歪んだバージョンを共有することを検討する。
ユーザの真のデータシーケンスと共有バージョン間の相互情報によるプライバシー漏洩を測定する。
我々は,2つの列間の瞬時および平均歪みを,所定の歪み尺度の下で有効損失指標として検討する。
歴史に依存した相互情報の最小化に取り組むため、マルコフ決定過程(MDP)として問題を再構成し、非同期アクター批判深層強化学習(RL)を用いて解決する。
合成GPSとGeoLifeGPSの両方のトラジェクトリデータセットにおける位置追跡プライバシーにおける提案手法の性能を評価する。
後者では, 敵ネットワークに対して, 解放された位置軌跡のプライバシをテストすることで, 解決策の有効性を示す。
関連論文リスト
- Differentially Private Data Release on Graphs: Inefficiencies and Unfairness [48.96399034594329]
本稿では,ネットワーク情報公開の文脈における偏見と不公平性に対する差別的プライバシの影響を特徴づける。
ネットワーク構造が全員に知られているネットワークリリースの問題を考えるが、エッジの重みをプライベートにリリースする必要がある。
我々の研究は、これらのネットワーク化された決定問題におけるプライバシーに起因する偏見と不公平性に関する理論的根拠と実証的な証拠を提供する。
論文 参考訳(メタデータ) (2024-08-08T08:37:37Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - RASE: Efficient Privacy-preserving Data Aggregation against Disclosure Attacks for IoTs [2.1765174838950494]
センサデバイスが生み出すデータを収集・保護する新たなパラダイムについて検討する。
データアグリゲーションとプライバシ保護の共同設計に関するこれまでの研究は、信頼されたフュージョンセンターがプライバシ体制に準拠していることを前提としている。
本稿では,3段階の逐次手順,雑音付加,ランダムな置換,パラメータ推定に一般化可能な新しいパラダイム(RASE)を提案する。
論文 参考訳(メタデータ) (2024-05-31T15:21:38Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Shuffled Differentially Private Federated Learning for Time Series Data
Analytics [10.198481976376717]
時系列データのためのプライバシー保護フェデレーション学習アルゴリズムを開発した。
具体的には、クライアントにプライバシ保護信頼境界を拡張するために、ローカルな差分プライバシーを使用します。
また、局所的な差分プライバシーを活用することによって生じる精度低下を軽減し、プライバシーの増幅を実現するためのシャッフル手法も取り入れた。
論文 参考訳(メタデータ) (2023-07-30T10:30:38Z) - PMP: Privacy-Aware Matrix Profile against Sensitive Pattern Inference
for Time Series [12.855499575586753]
本稿では,長文パターンに対する悪質な推論の防止という,新たなプライバシ保護問題を提案する。
マトリックスプロファイル(MP)は具体的な形状の漏洩を防止できるが,MPインデックスの正準相関はなおも感度の高い長パターンの位置を明らかにすることができる。
局所相関を摂動し,MPインデックスベクトルの正準相関を破るPMP(Privacy-Aware Matrix Profile)を提案する。
論文 参考訳(メタデータ) (2023-01-04T22:11:38Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Active Privacy-Utility Trade-off Against Inference in Time-Series Data
Sharing [29.738666406095074]
我々は、誠実だが信頼できるサービスプロバイダ(SP)のサービスに見返りに、個人情報を含むデータを公開しているユーザについて検討する。
両問題を部分的に観測可能なマルコフ決定過程(POMDP)として定式化し,アクター・クリティック(A2C)深部強化学習(DRL)を用いて数値的に解いた。
本研究では,合成データと喫煙活動データセットの両方に対するポリシーのプライバシユーティリティトレードオフ(PUT)を評価し,長い短期記憶(LSTM)ニューラルネットワークでモデル化されたSPのアクティビティ検出精度をテストすることにより,その妥当性を示す。
論文 参考訳(メタデータ) (2022-02-11T18:57:31Z) - Deep Directed Information-Based Learning for Privacy-Preserving Smart
Meter Data Release [30.409342804445306]
本稿では,時系列データとスマートメータ(SM)電力消費測定の文脈における問題点について検討する。
我々は、考慮された設定において、より意味のあるプライバシーの尺度として、指向情報(DI)を導入します。
最悪のシナリオにおけるSMs測定による実世界のデータセットに関する実証的研究は、プライバシとユーティリティの既存のトレードオフを示している。
論文 参考訳(メタデータ) (2020-11-20T13:41:11Z) - Hide-and-Seek Privacy Challenge [88.49671206936259]
NeurIPS 2020 Hide-and-Seek Privacy Challengeは、両方の問題を解決するための新しい2トラックの競争だ。
我々の頭から頭までのフォーマットでは、新しい高品質な集中ケア時系列データセットを用いて、合成データ生成トラック(「ヒッシャー」)と患者再識別トラック(「シーカー」)の参加者が直接対決する。
論文 参考訳(メタデータ) (2020-07-23T15:50:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。