論文の概要: Active Privacy-Utility Trade-off Against Inference in Time-Series Data
Sharing
- arxiv url: http://arxiv.org/abs/2202.05833v1
- Date: Fri, 11 Feb 2022 18:57:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-14 15:19:23.518819
- Title: Active Privacy-Utility Trade-off Against Inference in Time-Series Data
Sharing
- Title(参考訳): 時系列データ共有におけるアクティブプライバシ利用上のトレードオフ
- Authors: Ecenaz Erdemir, Pier Luigi Dragotti, and Deniz Gunduz
- Abstract要約: 我々は、誠実だが信頼できるサービスプロバイダ(SP)のサービスに見返りに、個人情報を含むデータを公開しているユーザについて検討する。
両問題を部分的に観測可能なマルコフ決定過程(POMDP)として定式化し,アクター・クリティック(A2C)深部強化学習(DRL)を用いて数値的に解いた。
本研究では,合成データと喫煙活動データセットの両方に対するポリシーのプライバシユーティリティトレードオフ(PUT)を評価し,長い短期記憶(LSTM)ニューラルネットワークでモデル化されたSPのアクティビティ検出精度をテストすることにより,その妥当性を示す。
- 参考スコア(独自算出の注目度): 29.738666406095074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Internet of things (IoT) devices, such as smart meters, smart speakers and
activity monitors, have become highly popular thanks to the services they
offer. However, in addition to their many benefits, they raise privacy concerns
since they share fine-grained time-series user data with untrusted third
parties. In this work, we consider a user releasing her data containing
personal information in return of a service from an honest-but-curious service
provider (SP). We model user's personal information as two correlated random
variables (r.v.'s), one of them, called the secret variable, is to be kept
private, while the other, called the useful variable, is to be disclosed for
utility. We consider active sequential data release, where at each time step
the user chooses from among a finite set of release mechanisms, each revealing
some information about the user's personal information, i.e., the true values
of the r.v.'s, albeit with different statistics. The user manages data release
in an online fashion such that the maximum amount of information is revealed
about the latent useful variable as quickly as possible, while the confidence
for the sensitive variable is kept below a predefined level. For privacy
measure, we consider both the probability of correctly detecting the true value
of the secret and the mutual information (MI) between the secret and the
released data. We formulate both problems as partially observable Markov
decision processes (POMDPs), and numerically solve them by advantage
actor-critic (A2C) deep reinforcement learning (DRL). We evaluate the
privacy-utility trade-off (PUT) of the proposed policies on both the synthetic
data and smoking activity dataset, and show their validity by testing the
activity detection accuracy of the SP modeled by a long short-term memory
(LSTM) neural network.
- Abstract(参考訳): スマートメーターやスマートスピーカー,アクティビティモニタなど,IoT(Internet of Things, モノのインターネット)デバイスは,同社が提供するサービスによって人気を博している。
しかし、多くのメリットに加えて、詳細な時系列ユーザーデータを信頼できない第三者と共有しているため、プライバシー上の懸念も高まる。
本研究では,サービス提供者(SP)の見返りに,個人情報を含むデータを公開しているユーザについて考察する。
我々は、ユーザの個人情報を2つの相関確率変数(r.v.s)としてモデル化し、そのうちの1つは秘密変数と呼ばれ、もう1つは有用変数と呼ばれ、ユーティリティとして開示される。
我々は,ユーザの個人情報,すなわちr.v.s.の真の価値に関する情報を,異なる統計値で明らかにする,アクティブなシーケンシャルなデータリリースについて検討する。
ユーザは、潜在有用な変数に関する情報の最大量をできるだけ早く開示すると共に、センシティブな変数に対する信頼度を予め定義されたレベル以下に保たれるように、オンライン形式でデータリリースを管理する。
プライバシ尺度では、秘密の真の価値を正しく検出する確率と、秘密と解放されたデータの間の相互情報(MI)の両方を考慮する。
両問題を部分的に観測可能なマルコフ決定過程(POMDP)として定式化し,アクター・クリティカル(A2C)深部強化学習(DRL)を用いて数値的に解いた。
本研究では,合成データと喫煙活動データセットの両方に対するポリシーのプライバシユーティリティトレードオフ(PUT)を評価し,長い短期記憶(LSTM)ニューラルネットワークでモデル化されたSPのアクティビティ検出精度をテストすることにより,その妥当性を示す。
関連論文リスト
- Differentially Private Data Release on Graphs: Inefficiencies and Unfairness [48.96399034594329]
本稿では,ネットワーク情報公開の文脈における偏見と不公平性に対する差別的プライバシの影響を特徴づける。
ネットワーク構造が全員に知られているネットワークリリースの問題を考えるが、エッジの重みをプライベートにリリースする必要がある。
我々の研究は、これらのネットワーク化された決定問題におけるプライバシーに起因する偏見と不公平性に関する理論的根拠と実証的な証拠を提供する。
論文 参考訳(メタデータ) (2024-08-08T08:37:37Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - How Much Privacy Does Federated Learning with Secure Aggregation
Guarantee? [22.7443077369789]
フェデレートラーニング(FL)は、複数のユーザに保存されたデータに対して、プライバシ保護機械学習を可能にすることへの関心が高まっている。
データはユーザのデバイスを離れることはないが、トレーニングデータに対する重要な計算がトレーニングされたローカルモデル形式で共有されるため、プライバシは保証されない。
セキュアアグリゲーション(SA)は、FLのプライバシーを守るためのフレームワークとして開発されている。
論文 参考訳(メタデータ) (2022-08-03T18:44:17Z) - Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning [0.0]
差別化プライバシは、プライバシとユーティリティのトレードオフの定量化を可能にする正式な定義である。
ローカルDP(LDP)モデルでは、ユーザはデータをサーバに送信する前に、ローカルにデータをサニタイズすることができる。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成できると結論付けました。
論文 参考訳(メタデータ) (2022-04-02T12:50:14Z) - Active Privacy-utility Trade-off Against a Hypothesis Testing Adversary [34.6578234382717]
利用者は、サービス見返りにいくつかの個人情報を含むデータを公開する。
ユーザーの個人情報を、秘密変数と呼ばれる2つの相関したランダム変数としてモデル化します。
本研究では,有用変数を正しく検出する確率と,有用変数と解放されたデータとの間の相互情報(MI)について考察する。
論文 参考訳(メタデータ) (2021-02-16T17:49:31Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Deep Directed Information-Based Learning for Privacy-Preserving Smart
Meter Data Release [30.409342804445306]
本稿では,時系列データとスマートメータ(SM)電力消費測定の文脈における問題点について検討する。
我々は、考慮された設定において、より意味のあるプライバシーの尺度として、指向情報(DI)を導入します。
最悪のシナリオにおけるSMs測定による実世界のデータセットに関する実証的研究は、プライバシとユーティリティの既存のトレードオフを示している。
論文 参考訳(メタデータ) (2020-11-20T13:41:11Z) - Privacy-Aware Time-Series Data Sharing with Deep Reinforcement Learning [33.42328078385098]
時系列データ共有におけるプライバシーユーティリティトレードオフ(PUT)について検討する。
現時点でのプライバシを保存する方法は、トレースレベルでかなりの量の情報をリークする可能性がある。
我々は、ユーザの真のデータシーケンスの歪んだバージョンを、信頼できない第三者と共有することを検討する。
論文 参考訳(メタデータ) (2020-03-04T18:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。