論文の概要: Differentially Private k-Means Clustering with Guaranteed Convergence
- arxiv url: http://arxiv.org/abs/2002.01043v1
- Date: Mon, 3 Feb 2020 22:53:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 09:33:57.014714
- Title: Differentially Private k-Means Clustering with Guaranteed Convergence
- Title(参考訳): 収束を保証した微分プライベートk-meansクラスタリング
- Authors: Zhigang Lu, Hong Shen
- Abstract要約: 反復的なクラスタリングアルゴリズムは、データの背後にある洞察を学習するのに役立ちます。
敵は、背景知識によって個人のプライバシーを推測することができる。
このような推論攻撃に対して個人のプライバシを保護するため、反復クラスタリングアルゴリズムの差分プライバシー(DP)を広く研究している。
- 参考スコア(独自算出の注目度): 5.335316436366718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Iterative clustering algorithms help us to learn the insights behind the
data. Unfortunately, this may allow adversaries to infer the privacy of
individuals with some background knowledge. In the worst case, the adversaries
know the centroids of an arbitrary iteration and the information of n-1 out of
n items. To protect individual privacy against such an inference attack,
preserving differential privacy (DP) for the iterative clustering algorithms
has been extensively studied in the interactive settings. However, existing
interactive differentially private clustering algorithms suffer from a
non-convergence problem, i.e., these algorithms may not terminate without a
predefined number of iterations. This problem severely impacts the clustering
quality and the efficiency of a differentially private algorithm. To resolve
this problem, in this paper, we propose a novel differentially private
clustering framework in the interactive settings which controls the orientation
of the movement of the centroids over the iterations to ensure the convergence
by injecting DP noise in a selected area. We prove that, in the expected case,
algorithm under our framework converges in at most twice the iterations of
Lloyd's algorithm. We perform experimental evaluations on real-world datasets
to show that our algorithm outperforms the state-of-the-art of the interactive
differentially private clustering algorithms with guaranteed convergence and
better clustering quality to meet the same DP requirement.
- Abstract(参考訳): 反復的なクラスタリングアルゴリズムは、データの背後にある洞察を学ぶのに役立つ。
残念ながら、これは敵が背景知識を持つ個人のプライバシーを推測することを可能にする可能性がある。
最悪の場合、敵は任意の反復のセントロイドと n 個の項目の n-1 の情報を知っている。
このような推論攻撃に対して個人のプライバシを保護するために、反復クラスタリングアルゴリズムの差分プライバシー(DP)の保護がインタラクティブな環境で広く研究されている。
しかしながら、既存のインタラクティブな微分プライベートクラスタリングアルゴリズムは、非収束問題、すなわち、これらのアルゴリズムは、事前定義されたイテレーション数なしでは終了できない。
この問題は、差分プライベートアルゴリズムのクラスタリング品質と効率に大きな影響を及ぼす。
この問題を解決するために,本研究では,ある領域にDPノイズを注入することにより収束性を確保するために,中心体の動きの方向を反復的に制御する対話的設定において,新たな差分プライベートクラスタリングフレームワークを提案する。
期待された場合、我々のフレームワークの下のアルゴリズムは、ロイドのアルゴリズムの少なくとも2倍のイテレーションで収束する。
我々は,実世界のデータセットを用いて実験を行い,このアルゴリズムが,同一のDP要件を満たすために,コンバージェンスとクラスタリング品質を保証し,対話型微分プライベートクラスタリングアルゴリズムの最先端性を上回ることを示す。
関連論文リスト
- Privacy-preserving Continual Federated Clustering via Adaptive Resonance
Theory [11.190614418770558]
クラスタリング領域では、フェデレーション学習フレームワーク(フェデレーションクラスタリング)を用いた様々なアルゴリズムが活発に研究されている。
本稿では,プライバシ保護型継続フェデレーションクラスタリングアルゴリズムを提案する。
合成および実世界のデータセットによる実験結果から,提案アルゴリズムはクラスタリング性能が優れていることが示された。
論文 参考訳(メタデータ) (2023-09-07T05:45:47Z) - Personalized Graph Federated Learning with Differential Privacy [6.282767337715445]
本稿では、分散接続されたサーバとそのエッジデバイスが協調してデバイスやクラスタ固有のモデルを学習する、パーソナライズされたグラフフェデレーション学習(PGFL)フレームワークを提案する。
本稿では、差分プライバシー、特にノイズシーケンスがモデル交換を行うゼロ集中差分プライバシーを利用するPGFL実装の変種について検討する。
分析の結果,このアルゴリズムは,ゼロ集中型差分プライバシーの観点から,全クライアントの局所的な差分プライバシを保証することがわかった。
論文 参考訳(メタデータ) (2023-06-10T09:52:01Z) - k-Means SubClustering: A Differentially Private Algorithm with Improved
Clustering Quality [0.0]
個人プライバシを推論攻撃から保護するために、対話的な設定で多くの微分プライベートな反復アルゴリズムが提案されている。
本研究は,従来の「分別的k-平均クラスタリングと収束保証」の取り組みをベースラインとして拡張する。
提案手法の新規性は,クラスタをサブクラスタ化して,将来のセントロイド方向に移動する確率の高いセントロイドを選択することである。
論文 参考訳(メタデータ) (2023-01-07T17:07:12Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Gradient Based Clustering [72.15857783681658]
本稿では,クラスタリングの品質を計測するコスト関数の勾配を用いて,距離に基づくクラスタリングの一般的な手法を提案する。
アプローチは反復的な2段階の手順(クラスタ割り当てとクラスタセンターのアップデートの代替)であり、幅広い機能に適用できる。
論文 参考訳(メタデータ) (2022-02-01T19:31:15Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - Differentially Private Clustering via Maximum Coverage [7.059472280274009]
我々は、個々のデータのプライバシーを維持しながら、計量空間におけるクラスタリングの問題を研究する。
一定の乗法誤差と低い加算誤差を持つ差分アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-27T22:11:18Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。