論文の概要: Differentially Private Online Bayesian Estimation With Adaptive
Truncation
- arxiv url: http://arxiv.org/abs/2301.08202v1
- Date: Thu, 19 Jan 2023 17:53:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 14:22:20.211797
- Title: Differentially Private Online Bayesian Estimation With Adaptive
Truncation
- Title(参考訳): adaptive truncation を用いた微分プライベートオンラインベイズ推定
- Authors: Sinan Y{\i}ld{\i}r{\i}m
- Abstract要約: そこで本研究では,集団に関する静的パラメータの偏微分プライベートなベイズオンライン推定のための,新しいオンライン・適応的トランケーション手法を提案する。
予測クエリを小さな感度で設計することを目的としており、それによってプライバシー保護ノイズが小さくなり、同じレベルのプライバシーを維持しながらより正確な推定が可能となる。
- 参考スコア(独自算出の注目度): 1.14219428942199
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel online and adaptive truncation method for differentially
private Bayesian online estimation of a static parameter regarding a
population. We assume that sensitive information from individuals is collected
sequentially and the inferential aim is to estimate, on-the-fly, a static
parameter regarding the population to which those individuals belong. We
propose sequential Monte Carlo to perform online Bayesian estimation. When
individuals provide sensitive information in response to a query, it is
necessary to perturb it with privacy-preserving noise to ensure the privacy of
those individuals. The amount of perturbation is proportional to the
sensitivity of the query, which is determined usually by the range of the
queried information. The truncation technique we propose adapts to the
previously collected observations to adjust the query range for the next
individual. The idea is that, based on previous observations, we can carefully
arrange the interval into which the next individual's information is to be
truncated before being perturbed with privacy-preserving noise. In this way, we
aim to design predictive queries with small sensitivity, hence small
privacy-preserving noise, enabling more accurate estimation while maintaining
the same level of privacy. To decide on the location and the width of the
interval, we use an exploration-exploitation approach a la Thompson sampling
with an objective function based on the Fisher information of the generated
observation. We show the merits of our methodology with numerical examples.
- Abstract(参考訳): 本稿では,個体群に関する静的パラメータの微分プライベートベイズオンライン推定のための,新しいオンラインおよび適応的トランザクション手法を提案する。
個人からのセンシティブな情報を逐次収集し,その個人が属する個体数に関する静的パラメータであるオンザフライ(on-the-fly)を推定する。
オンラインベイズ推定を行うために連続モンテカルロを提案する。
個人がクエリに応答してセンシティブな情報を提供する場合、その個人のプライバシーを確保するために、プライバシ保存ノイズで妨害する必要がある。
摂動量はクエリの感度に比例し、通常、クエリされた情報の範囲によって決定される。
提案手法は,前回収集した観測結果に適応し,次の個人に対する問い合わせ範囲を調整できる。
その考え方は、前回の観察に基づいて、プライバシ保護ノイズに陥る前に、次の個人の情報が途切れる間隔を慎重に調整できるということです。
このようにして、予測クエリを小さな感度で設計し、したがってプライバシー保護ノイズを小さくし、同じレベルのプライバシーを維持しながらより正確な推定を可能にする。
間隔の位置と幅を決定するために、生成された観測のフィッシャー情報に基づいて目的関数を持つラ・トンプソン・サンプリングの探索-探索手法を用いる。
数値的な例で方法論の利点を示す。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Enhanced Privacy Bound for Shuffle Model with Personalized Privacy [32.08637708405314]
Differential Privacy(DP)は、ローカルユーザと中央データキュレーターの間の中間信頼サーバを導入する、強化されたプライバシプロトコルである。
これは、局所的にランダム化されたデータを匿名化しシャッフルすることで、中央のDP保証を著しく増幅する。
この研究は、各ユーザーごとにパーソナライズされたローカルプライバシを必要とする、より実践的な設定のために、中央のプライバシ境界を導出することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T16:11:56Z) - Certification for Differentially Private Prediction in Gradient-Based Training [36.686002369773014]
我々は凸緩和と有界伝播を用いて、予測の局所的および滑らかな感度の証明可能な上界を計算する。
このバウンダリによって、プライベートな予測設定で付加されるノイズの規模を減らしたり、プライバシ会計を改善することができます。
論文 参考訳(メタデータ) (2024-06-19T10:47:00Z) - RASE: Efficient Privacy-preserving Data Aggregation against Disclosure Attacks for IoTs [2.1765174838950494]
センサデバイスが生み出すデータを収集・保護する新たなパラダイムについて検討する。
データアグリゲーションとプライバシ保護の共同設計に関するこれまでの研究は、信頼されたフュージョンセンターがプライバシ体制に準拠していることを前提としている。
本稿では,3段階の逐次手順,雑音付加,ランダムな置換,パラメータ推定に一般化可能な新しいパラダイム(RASE)を提案する。
論文 参考訳(メタデータ) (2024-05-31T15:21:38Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - A Unified Approach to Differentially Private Bayes Point Estimation [7.599399338954307]
推定値にランダム化を導入して機密性を強制する,差分プライバシー(DP)が提案されている。
微分プライベート推定の標準的なアルゴリズムは、従来の点推定法の出力に適切な量の雑音を加えることに基づいている。
DP制約下でのデータ生成機構の未知パラメータのベイズ点推定に対する統一ベイズプライベートポイント(UBaPP)アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-18T16:42:49Z) - CertainNet: Sampling-free Uncertainty Estimation for Object Detection [65.28989536741658]
ニューラルネットワークの不確実性を推定することは、安全クリティカルな設定において基本的な役割を果たす。
本研究では,オブジェクト検出のための新しいサンプリング不要不確実性推定法を提案する。
私たちはそれをCertainNetと呼び、各出力信号に対して、オブジェクト性、クラス、位置、サイズという、別の不確実性を提供するのは、これが初めてです。
論文 参考訳(メタデータ) (2021-10-04T17:59:31Z) - Non-parametric Differentially Private Confidence Intervals for the
Median [3.205141100055992]
本稿では,中央値に対する有意な個人的信頼区間を計算するためのいくつかの戦略を提案し,評価する。
また、サンプリングからのエラーと出力の保護からのエラーという2つの不確実性源に対処することが、この不確実性を逐次的に組み込んだ単純なアプローチよりも望ましいことを示す。
論文 参考訳(メタデータ) (2021-06-18T19:45:37Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。