論文の概要: Achieving differential privacy for $k$-nearest neighbors based outlier
detection by data partitioning
- arxiv url: http://arxiv.org/abs/2104.07938v1
- Date: Fri, 16 Apr 2021 07:35:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 00:13:28.991617
- Title: Achieving differential privacy for $k$-nearest neighbors based outlier
detection by data partitioning
- Title(参考訳): データパーティショニングによる外部検出に基づく$k$-nearest近傍の差分プライバシーの実現
- Authors: Jens Rauch, Iyiola E. Olatunji and Megha Khosla
- Abstract要約: 我々は、$k$-NNに基づく外乱検出のための差分プライベート(epsilon$-DP)アプローチを開発した。
提案手法は,提案手法を参照不整合データに対する適合ステップに分離し,新しいデータに適用することで,$k$-NNに基づく外れ値検出を行う手法である。
提案手法は,$k$-NNの非プライベートバージョンと比較して,次元の異なる実世界のデータに対して,ほぼ最適な性能が得られる。
- 参考スコア(独自算出の注目度): 0.3437656066916039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When applying outlier detection in settings where data is sensitive,
mechanisms which guarantee the privacy of the underlying data are needed. The
$k$-nearest neighbors ($k$-NN) algorithm is a simple and one of the most
effective methods for outlier detection. So far, there have been no attempts
made to develop a differentially private ($\epsilon$-DP) approach for $k$-NN
based outlier detection. Existing approaches often relax the notion of
$\epsilon$-DP and employ other methods than $k$-NN. We propose a method for
$k$-NN based outlier detection by separating the procedure into a fitting step
on reference inlier data and then apply the outlier classifier to new data. We
achieve $\epsilon$-DP for both the fitting algorithm and the outlier classifier
with respect to the reference data by partitioning the dataset into a uniform
grid, which yields low global sensitivity. Our approach yields nearly optimal
performance on real-world data with varying dimensions when compared to the
non-private versions of $k$-NN.
- Abstract(参考訳): データがセンシティブな設定で異常検出を適用する場合、基盤となるデータのプライバシを保証するメカニズムが必要である。
k$-nearest neighbors$k$-NN)アルゴリズムは、外れ値検出の最も効果的な方法の1つである。
これまでのところ、$k$-NNベースの外れ値検出のための差分プライベート(\epsilon$-DP)アプローチを開発する試みは行われていない。
既存のアプローチはしばしば$\epsilon$-DPの概念を緩和し、$k$-NN以外のメソッドを使う。
提案手法は,提案手法を参照不整合データに対する適合ステップに分離し,新しいデータに適用することで,$k$-NNに基づく外れ値検出を行う手法である。
我々は、データセットを一様格子に分割することで、基準データに対する適合アルゴリズムと外れ値分類器の両方に対して$\epsilon$-DPを達成し、世界全体の感度を低くする。
提案手法は,$k$-NNの非プライベートバージョンと比較して,次元の異なる実世界のデータに対してほぼ最適な性能を示す。
関連論文リスト
- Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator [49.87315310656657]
我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
論文 参考訳(メタデータ) (2024-09-08T13:08:45Z) - Resampling methods for private statistical inference [1.8110941972682346]
我々は、信頼区間を異なるプライバシーで構築する作業について検討する。
データのパーティション上で実行される複数の"小さな"ブートストラップの結果の中央値をプライベートに計算する,非パラメトリックブートストラップの2つのプライベート変種を提案する。
固定された差分プライバシーパラメータ$epsilon$に対して、我々のメソッドは、サンプルサイズ$n$の対数係数内の非プライベートブートストラップと同じエラー率を享受します。
論文 参考訳(メタデータ) (2024-02-11T08:59:02Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Scalable Differentially Private Clustering via Hierarchically Separated
Trees [82.69664595378869]
我々は,最大$O(d3/2log n)cdot OPT + O(k d2 log2 n / epsilon2)$,$epsilon$はプライバシ保証であることを示す。
最悪の場合の保証は、最先端のプライベートクラスタリング手法よりも悪いが、提案するアルゴリズムは実用的である。
論文 参考訳(メタデータ) (2022-06-17T09:24:41Z) - DP-PCA: Statistically Optimal and Differentially Private PCA [44.22319983246645]
DP-PCAは、両方の制限を克服するシングルパスアルゴリズムである。
準ガウスデータに対しては、$n=tilde O(d)$ であっても、ほぼ最適な統計的誤差率を提供する。
論文 参考訳(メタデータ) (2022-05-27T02:02:17Z) - Differentially Private Federated Learning via Inexact ADMM with Multiple
Local Updates [0.0]
我々は,複数の局所的な更新を施した乗算器アルゴリズムのDP不正確な交互方向法を開発した。
当社のアルゴリズムでは,各イテレーション毎に$barepsilon$-DPを提供しており,$barepsilon$はユーザが管理するプライバシ予算である。
提案アルゴリズムは,既存のDPアルゴリズムと比較してテストエラーを少なくとも31%削減すると同時に,データプライバシのレベルが同じであることを実証する。
論文 参考訳(メタデータ) (2022-02-18T19:58:47Z) - Differentially Private Federated Learning via Inexact ADMM [0.0]
差分プライバシー(DP)技術は、データプライバシを推論攻撃から保護するために、フェデレーション付き学習モデルに適用することができる。
我々は,信頼領域のサブプロブレム列を解く乗算器アルゴリズムのDP不正確な交互方向法を開発した。
提案アルゴリズムは,既存のDPアルゴリズムと比較してテストエラーを少なくとも22%削減すると同時に,データプライバシのレベルも同等に向上する。
論文 参考訳(メタデータ) (2021-06-11T02:28:07Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。