論文の概要: Differentially Private Algorithms for Clustering with Stability
Assumptions
- arxiv url: http://arxiv.org/abs/2106.12959v1
- Date: Fri, 11 Jun 2021 00:45:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-27 09:04:49.133977
- Title: Differentially Private Algorithms for Clustering with Stability
Assumptions
- Title(参考訳): 安定性を考慮したクラスタリングのための微分プライベートアルゴリズム
- Authors: Moshe Shechner
- Abstract要約: 安定な入力をクラスタリングするためのより単純なアルゴリズムを提案する。
我々はWasserstein距離とk-meansコストの両方でその実用性を分析する。
我々のアルゴリズムは、k-medianインスタンスの「ニッチ」と微分プライバシの局所モデルのためのストレートフォワードアナログを持つ。
- 参考スコア(独自算出の注目度): 0.76146285961466
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We study the problem of differentially private clustering under
input-stability assumptions. Despite the ever-growing volume of works on
differential privacy in general and differentially private clustering in
particular, only three works (Nissim et al. 2007, Wang et al. 2015, Huang et
al. 2018) looked at the problem of privately clustering "nice" k-means
instances, all three relying on the sample-and-aggregate framework and all
three measuring utility in terms of Wasserstein distance between the true
cluster centers and the centers returned by the private algorithm. In this work
we improve upon this line of works on multiple axes. We present a far simpler
algorithm for clustering stable inputs (not relying on the sample-and-aggregate
framework), and analyze its utility in both the Wasserstein distance and the
k-means cost. Moreover, our algorithm has straight-forward analogues for "nice"
k-median instances and for the local-model of differential privacy.
- Abstract(参考訳): 入力安定性仮定下での微分プライベートクラスタリングの問題について検討する。
一般の差分プライバシー、特に差分プライベートクラスタリングに関する研究は増え続けているが、3つの研究(Nissim et al)しかない。
2007年、wangら。
2015年、Huangら。
2018年) プライベートクラスタリング"nice" k-meansインスタンスの問題に目を向けると、サンプル・アンド・アグリゲーションフレームワークと3つの測定ユーティリティすべてに依存する3つのすべてが、真のクラスタ中心とプライベートアルゴリズムによって返されたセンターとの間のwasserstein距離という観点で問題に目を向ける。
この作業では、複数の軸上のこの一連の作業を改善する。
安定な入力をクラスタリングするアルゴリズム(サンプル・アンド・アグリゲートフレームワークに依存しない)を提案し,その実用性をワッサーシュタイン距離とk平均コストの両方で解析する。
さらに,本アルゴリズムは,k-medianインスタンスの「ニッチ」と差分プライバシの局所モデルに対するストレートフォワード類似性を有する。
関連論文リスト
- Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Differentially-Private Clustering of Easy Instances [67.04951703461657]
異なるプライベートクラスタリングでは、個々のデータポイントに関する情報を公開せずに、$k$のクラスタセンターを特定することが目標だ。
我々は、データが"簡単"である場合にユーティリティを提供する実装可能な差分プライベートクラスタリングアルゴリズムを提供する。
我々は、非プライベートクラスタリングアルゴリズムを簡単なインスタンスに適用し、結果をプライベートに組み合わせることのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-29T08:13:56Z) - Differentially Private Correlation Clustering [23.93805663525436]
相関クラスタリングは教師なし機械学習で広く使われている手法である。
個人のプライバシーが懸念されるアプリケーションに動機づけられて、微分プライベート相関クラスタリングの研究を開始します。
論文 参考訳(メタデータ) (2021-02-17T17:27:48Z) - Determinantal consensus clustering [77.34726150561087]
本稿では,クラスタリングアルゴリズムのランダム再起動における決定点プロセス (DPP) の利用を提案する。
DPPは部分集合内の中心点の多様性を好んでいる。
DPPとは対照的に、この手法は多様性の確保と、すべてのデータフェースについて良好なカバレッジを得るために失敗することを示す。
論文 参考訳(メタデータ) (2021-02-07T23:48:24Z) - Differentially Private Clustering via Maximum Coverage [7.059472280274009]
我々は、個々のデータのプライバシーを維持しながら、計量空間におけるクラスタリングの問題を研究する。
一定の乗法誤差と低い加算誤差を持つ差分アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-27T22:11:18Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z) - Differentially Private k-Means Clustering with Guaranteed Convergence [5.335316436366718]
反復的なクラスタリングアルゴリズムは、データの背後にある洞察を学習するのに役立ちます。
敵は、背景知識によって個人のプライバシーを推測することができる。
このような推論攻撃に対して個人のプライバシを保護するため、反復クラスタリングアルゴリズムの差分プライバシー(DP)を広く研究している。
論文 参考訳(メタデータ) (2020-02-03T22:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。