論文の概要: Differentially Private Naive Bayes Classifier using Smooth Sensitivity
- arxiv url: http://arxiv.org/abs/2003.13955v2
- Date: Mon, 19 Jul 2021 17:31:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 01:50:18.452753
- Title: Differentially Private Naive Bayes Classifier using Smooth Sensitivity
- Title(参考訳): Smooth Sensitivity を用いた個人用ベイズ識別器
- Authors: Farzad Zafarani and Chris Clifton
- Abstract要約: 我々は,Smooth Sensitivityのパラメータに比例した雑音を付加する,微分プライベートなNaive Bayes分類器を提供した。
実世界のデータセットを用いた実験結果から,$varepsilon$-differential privacy を保ちながら,提案手法の精度が大幅に向上したことが明らかとなった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing collection of users' data, protecting individual privacy
has gained more interest. Differential Privacy is a strong concept of
protecting individuals. Naive Bayes is one of the popular machine learning
algorithm, used as a baseline for many tasks. In this work, we have provided a
differentially private Naive Bayes classifier that adds noise proportional to
the Smooth Sensitivity of its parameters. We have compared our result to
Vaidya, Shafiq, Basu, and Hong in which they have scaled the noise to the
global sensitivity of the parameters. Our experiment results on the real-world
datasets show that the accuracy of our method has improved significantly while
still preserving $\varepsilon$-differential privacy.
- Abstract(参考訳): ユーザのデータ収集の増加に伴い、個人のプライバシ保護に対する関心が高まっている。
差別プライバシーは個人を保護する強力な概念である。
Naive Bayesは一般的な機械学習アルゴリズムの1つで、多くのタスクのベースラインとして使用される。
本研究では,Smooth Sensitivityのパラメータに比例した雑音を付加する,微分プライベートなNaive Bayes分類器を提案する。
その結果を、Vaydya、Shafiq、Basu、Hongと比較し、そのノイズをパラメータのグローバルな感度に拡大した。
実世界のデータセットを用いた実験の結果,$\varepsilon$-differential privacyを維持しながら,精度が大幅に向上したことがわかった。
関連論文リスト
- Differentially Private Online Bayesian Estimation With Adaptive
Truncation [1.14219428942199]
そこで本研究では,集団に関する静的パラメータの偏微分プライベートなベイズオンライン推定のための,新しいオンライン・適応的トランケーション手法を提案する。
予測クエリを小さな感度で設計することを目的としており、それによってプライバシー保護ノイズが小さくなり、同じレベルのプライバシーを維持しながらより正確な推定が可能となる。
論文 参考訳(メタデータ) (2023-01-19T17:53:53Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Private Boosted Decision Trees via Smooth Re-Weighting [2.099922236065961]
微分プライバシーは、正式なプライバシー保証のための適切な数学的枠組みである。
差分プライバシーを保証する決定木を向上するための実用的なアルゴリズムを提案し,検証する。
論文 参考訳(メタデータ) (2022-01-29T20:08:52Z) - Not all noise is accounted equally: How differentially private learning
benefits from large sampling rates [0.0]
差分的にプライベートなSGDでは、各トレーニングイテレーションで計算された勾配は2種類のノイズを受ける。
本研究では,これらの2種類のノイズが,プライベートニューラルネットワークの有用性に与える影響について検討した。
雑音の比率を、より固有で付加的な雑音にシフトさせる訓練パラダイムを提案する。
論文 参考訳(メタデータ) (2021-10-12T18:11:31Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Privacy Amplification Via Bernoulli Sampling [24.23990103106668]
ベイズ推論で用いられる新しい操作, 後部からのサンプリングのプライバシー増幅特性を解析する。
この設定で増幅係数を計算し、この係数の上下境界を確立するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-05-21T22:34:32Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Privacy-Preserving Boosting in the Local Setting [17.375582978294105]
機械学習では、複数のベース学習者と優れた学習者を組み合わせるように設計された最も一般的な方法の1つがブースティングである。
ビッグデータ時代において、個人や団体によって保持されるデータ(個人画像、閲覧履歴、国勢調査情報など)は、より機密性の高い情報を含む傾向にある。
ローカル微分プライバシーは、データ所有者に強力な保証を提供する効果的なプライバシー保護アプローチとして提案されている。
論文 参考訳(メタデータ) (2020-02-06T04:48:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。