論文の概要: Differentially Private Clustering via Maximum Coverage
- arxiv url: http://arxiv.org/abs/2008.12388v1
- Date: Thu, 27 Aug 2020 22:11:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 08:36:45.580393
- Title: Differentially Private Clustering via Maximum Coverage
- Title(参考訳): 最大被覆による差分プライベートクラスタリング
- Authors: Matthew Jones, Huy L\^e Nguyen, Thy Nguyen
- Abstract要約: 我々は、個々のデータのプライバシーを維持しながら、計量空間におけるクラスタリングの問題を研究する。
一定の乗法誤差と低い加算誤差を持つ差分アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 7.059472280274009
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the problem of clustering in metric spaces while
preserving the privacy of individual data. Specifically, we examine
differentially private variants of the k-medians and Euclidean k-means
problems. We present polynomial algorithms with constant multiplicative error
and lower additive error than the previous state-of-the-art for each problem.
Additionally, our algorithms use a clustering algorithm without differential
privacy as a black-box. This allows practitioners to control the trade-off
between runtime and approximation factor by choosing a suitable clustering
algorithm to use.
- Abstract(参考訳): 本稿では,個々のデータのプライバシーを維持しながら,計量空間におけるクラスタリングの問題を研究する。
具体的には、k-medians 問題とユークリッド k-means 問題の微分プライベートな変種について検討する。
本稿では,各問題に対する先行状態よりも定数乗法誤差と加算誤差が低い多項式アルゴリズムを提案する。
さらに、アルゴリズムはブラックボックスとして差分プライバシーのないクラスタリングアルゴリズムを使用する。
これにより、実行時と近似係数の間のトレードオフを制御するために、適切なクラスタリングアルゴリズムを選択することができる。
関連論文リスト
- Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Differentially-Private Hierarchical Clustering with Provable
Approximation Guarantees [79.59010418610625]
階層クラスタリングのための微分プライベート近似アルゴリズムについて検討する。
例えば、$epsilon$-DPアルゴリズムは入力データセットに対して$O(|V|2/epsilon)$-additiveエラーを示さなければならない。
本稿では,ブロックを正確に復元する1+o(1)$近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-31T19:14:30Z) - Optimal Algorithms for Mean Estimation under Local Differential Privacy [55.32262879188817]
そこで本研究では,PrivUnitが局所的プライベートな乱数化器群間の最適分散を実現することを示す。
また,ガウス分布に基づくPrivUnitの新たな変種も開発しており,数学的解析に適しており,同じ最適性保証を享受できる。
論文 参考訳(メタデータ) (2022-05-05T06:43:46Z) - Personalized Federated Learning via Convex Clustering [72.15857783681658]
本稿では,局所凸型ユーザコストを用いた個人化フェデレーション学習のためのアルゴリズム群を提案する。
提案するフレームワークは,異なるユーザのモデルの違いをペナル化する凸クラスタリングの一般化に基づいている。
論文 参考訳(メタデータ) (2022-02-01T19:25:31Z) - Differentially-Private Clustering of Easy Instances [67.04951703461657]
異なるプライベートクラスタリングでは、個々のデータポイントに関する情報を公開せずに、$k$のクラスタセンターを特定することが目標だ。
我々は、データが"簡単"である場合にユーティリティを提供する実装可能な差分プライベートクラスタリングアルゴリズムを提供する。
我々は、非プライベートクラスタリングアルゴリズムを簡単なインスタンスに適用し、結果をプライベートに組み合わせることのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-29T08:13:56Z) - Differentially Private Algorithms for Clustering with Stability
Assumptions [0.76146285961466]
安定な入力をクラスタリングするためのより単純なアルゴリズムを提案する。
我々はWasserstein距離とk-meansコストの両方でその実用性を分析する。
我々のアルゴリズムは、k-medianインスタンスの「ニッチ」と微分プライバシの局所モデルのためのストレートフォワードアナログを持つ。
論文 参考訳(メタデータ) (2021-06-11T00:45:39Z) - Differentially Private Correlation Clustering [23.93805663525436]
相関クラスタリングは教師なし機械学習で広く使われている手法である。
個人のプライバシーが懸念されるアプリケーションに動機づけられて、微分プライベート相関クラスタリングの研究を開始します。
論文 参考訳(メタデータ) (2021-02-17T17:27:48Z) - A note on differentially private clustering with large additive error [15.508460240818575]
ほぼ同じ加法誤差でククラスタリングを行うための微分プライベートアルゴリズムを得るための簡単な手法を述べる。
このアプローチは、プライバシーの考慮から独立した単純な観察と、一定の近似を持つ既存のプライベートアルゴリズムの組み合わせである。
論文 参考訳(メタデータ) (2020-09-28T13:40:04Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z) - Differentially Private k-Means Clustering with Guaranteed Convergence [5.335316436366718]
反復的なクラスタリングアルゴリズムは、データの背後にある洞察を学習するのに役立ちます。
敵は、背景知識によって個人のプライバシーを推測することができる。
このような推論攻撃に対して個人のプライバシを保護するため、反復クラスタリングアルゴリズムの差分プライバシー(DP)を広く研究している。
論文 参考訳(メタデータ) (2020-02-03T22:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。