論文の概要: Privacy Amplification by Subsampling in Time Domain
- arxiv url: http://arxiv.org/abs/2201.04762v1
- Date: Thu, 13 Jan 2022 01:43:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-14 14:04:34.021178
- Title: Privacy Amplification by Subsampling in Time Domain
- Title(参考訳): 時間領域におけるサブサンプリングによるプライバシー増幅
- Authors: Tatsuki Koga, Casey Meehan, Kamalika Chaudhuri
- Abstract要約: トラフィックフローやサイト占有率などの時系列データは、時間を通して人口統計を繰り返しサンプリングする。
差別化プライバシ(DP)の標準定義を満たすプライベートバージョンを作成することは難しい。
この感度の大幅な低下を示し、それに対応するプライバシー機構を提案する。
- 参考スコア(独自算出の注目度): 22.624073990391175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aggregate time-series data like traffic flow and site occupancy repeatedly
sample statistics from a population across time. Such data can be profoundly
useful for understanding trends within a given population, but also pose a
significant privacy risk, potentially revealing e.g., who spends time where.
Producing a private version of a time-series satisfying the standard definition
of Differential Privacy (DP) is challenging due to the large influence a single
participant can have on the sequence: if an individual can contribute to each
time step, the amount of additive noise needed to satisfy privacy increases
linearly with the number of time steps sampled. As such, if a signal spans a
long duration or is oversampled, an excessive amount of noise must be added,
drowning out underlying trends. However, in many applications an individual
realistically cannot participate at every time step. When this is the case, we
observe that the influence of a single participant (sensitivity) can be reduced
by subsampling and/or filtering in time, while still meeting privacy
requirements. Using a novel analysis, we show this significant reduction in
sensitivity and propose a corresponding class of privacy mechanisms. We
demonstrate the utility benefits of these techniques empirically with
real-world and synthetic time-series data.
- Abstract(参考訳): トラフィックフローやサイト占有率などの時系列データは、時間を通して人口統計を繰り返しサンプリングする。
このようなデータは、特定の人口内のトレンドを理解する上で非常に有用であると同時に、プライバシーに関する重大なリスクも引き起こす可能性がある。
個人が各タイムステップに貢献できる場合、プライバシを満たすのに必要な追加ノイズの量は、サンプリングされたタイムステップの数とともに直線的に増加する。
したがって、もし信号が長い持続時間にまたがる、または過度にサンプリングされた場合、過大なノイズを追加し、基礎となるトレンドを溺れ去らなければならない。
しかし、多くのアプリケーションでは、個々人があらゆる時間ステップでリアルに参加できない。
このような場合、プライバシ要件を満たしながら、時間内にサブサンプリングやフィルタリングを行うことで、単一の参加者(感受性)の影響を低減できると観察する。
新たな分析により,感度の大幅な低下を示し,それに対応するプライバシメカニズムを提案する。
実世界および合成時系列データを用いて,これらの手法の有用性を実証する。
関連論文リスト
- PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Bistochastically private release of data streams with zero delay [0.0]
本稿では、正式なプライバシー保証を示しながら遅延をゼロにするデータストリームの匿名化のためのプロトコルを提案する。
ストリームを入力した個人に対して,バッチ処理ではなく,アトミックな処理を実現することが可能であることを示す。
論文 参考訳(メタデータ) (2024-02-25T14:18:14Z) - Amplitude-Varying Perturbation for Balancing Privacy and Utility in
Federated Learning [86.08285033925597]
本稿では,フェデレート学習のプライバシを保護するため,時変雑音振幅を持つ新しいDP摂動機構を提案する。
我々は、FLの過度な摂動ノイズによる早期収束を防止するために、シリーズのオンラインリファインメントを導出した。
新しいDP機構のプライバシ保存FLの収束と精度への寄与は、持続的な雑音振幅を持つ最先端のガウスノイズ機構と比較して相関する。
論文 参考訳(メタデータ) (2023-03-07T22:52:40Z) - Differentially Private Online Bayesian Estimation With Adaptive
Truncation [1.14219428942199]
そこで本研究では,集団に関する静的パラメータの偏微分プライベートなベイズオンライン推定のための,新しいオンライン・適応的トランケーション手法を提案する。
予測クエリを小さな感度で設計することを目的としており、それによってプライバシー保護ノイズが小さくなり、同じレベルのプライバシーを維持しながらより正確な推定が可能となる。
論文 参考訳(メタデータ) (2023-01-19T17:53:53Z) - Enabling Trade-offs in Privacy and Utility in Genomic Data Beacons and
Summary Statistics [26.99521354120141]
要約データやBeaconの応答とプライバシを明示的にトレードオフするための最適化ベースのアプローチを導入します。
第一に、攻撃者はメンバーシップ推論のクレームを行うために確率比テストを適用する。
第2に、攻撃者は、個人間のスコアの分離に対するデータリリースの影響を考慮に入れたしきい値を使用する。
論文 参考訳(メタデータ) (2023-01-11T19:16:13Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - On the Statistical Complexity of Estimation and Testing under Privacy Constraints [17.04261371990489]
差分プライバシー下での統計的テストのパワーをプラグアンドプレイ方式で特徴付ける方法を示す。
プライバシ保護のレベルが非常に高い場合にのみ、プライバシの維持が顕著なパフォーマンス低下をもたらすことを示す。
最後に,プライベート凸解法であるDP-SGLDアルゴリズムを高信頼度で最大推定できることを示した。
論文 参考訳(メタデータ) (2022-10-05T12:55:53Z) - Privacy of Noisy Stochastic Gradient Descent: More Iterations without
More Privacy Loss [34.66940399825547]
業界は単純なアルゴリズムを広く採用している:騒音を伴うグラディエントDescent(グラディエントLangevin Dynamics)
このアルゴリズムのプライバシ損失に関する疑問は、バウンドドメイン上の滑らかな凸損失の一見単純な設定であっても、まだオープンである。
我々は、差分プライバシーを一定の要因まで特徴づけ、小さなバーンイン期間の後、SGDの実行がこれ以上のプライバシーを漏らさないことを示す。
論文 参考訳(メタデータ) (2022-05-27T02:09:55Z) - Hide-and-Seek Privacy Challenge [88.49671206936259]
NeurIPS 2020 Hide-and-Seek Privacy Challengeは、両方の問題を解決するための新しい2トラックの競争だ。
我々の頭から頭までのフォーマットでは、新しい高品質な集中ケア時系列データセットを用いて、合成データ生成トラック(「ヒッシャー」)と患者再識別トラック(「シーカー」)の参加者が直接対決する。
論文 参考訳(メタデータ) (2020-07-23T15:50:59Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - Differential Privacy of Hierarchical Census Data: An Optimization
Approach [53.29035917495491]
国勢調査局(Census Bureaus)は、個人に関する機密情報を明らかにすることなく、大人口に関する社会経済的データをまとめて公開することに興味を持っている。
最近の出来事では、これらの組織が直面しているプライバシー上の課題がいくつか特定されている。
本稿では,階層的な個人数を解放する新たな差分プライバシ機構を提案する。
論文 参考訳(メタデータ) (2020-06-28T18:19:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。