論文の概要: k-Means SubClustering: A Differentially Private Algorithm with Improved
Clustering Quality
- arxiv url: http://arxiv.org/abs/2301.02896v1
- Date: Sat, 7 Jan 2023 17:07:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 17:25:52.060100
- Title: k-Means SubClustering: A Differentially Private Algorithm with Improved
Clustering Quality
- Title(参考訳): k-Means SubClustering: クラスタリング品質を改善した差分プライベートアルゴリズム
- Authors: Devvrat Joshi, Janvi Thakkar
- Abstract要約: 個人プライバシを推論攻撃から保護するために、対話的な設定で多くの微分プライベートな反復アルゴリズムが提案されている。
本研究は,従来の「分別的k-平均クラスタリングと収束保証」の取り組みをベースラインとして拡張する。
提案手法の新規性は,クラスタをサブクラスタ化して,将来のセントロイド方向に移動する確率の高いセントロイドを選択することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In today's data-driven world, the sensitivity of information has been a
significant concern. With this data and additional information on the person's
background, one can easily infer an individual's private data. Many
differentially private iterative algorithms have been proposed in interactive
settings to protect an individual's privacy from these inference attacks. The
existing approaches adapt the method to compute differentially private(DP)
centroids by iterative Llyod's algorithm and perturbing the centroid with
various DP mechanisms. These DP mechanisms do not guarantee convergence of
differentially private iterative algorithms and degrade the quality of the
cluster. Thus, in this work, we further extend the previous work on
'Differentially Private k-Means Clustering With Convergence Guarantee' by
taking it as our baseline. The novelty of our approach is to sub-cluster the
clusters and then select the centroid which has a higher probability of moving
in the direction of the future centroid. At every Lloyd's step, the centroids
are injected with the noise using the exponential DP mechanism. The results of
the experiments indicate that our approach outperforms the current
state-of-the-art method, i.e., the baseline algorithm, in terms of clustering
quality while maintaining the same differential privacy requirements. The
clustering quality significantly improved by 4.13 and 2.83 times than baseline
for the Wine and Breast_Cancer dataset, respectively.
- Abstract(参考訳): 今日のデータ駆動の世界では、情報の感度が大きな問題となっている。
このデータと人物の背景に関する追加情報により、個人のプライベートデータを容易に推測することができる。
これらの推論攻撃から個人のプライバシを保護するために、インタラクティブな設定で多くの微分的反復アルゴリズムが提案されている。
既存のアプローチでは, 微分プライベート(DP)セントロイドを反復的Llyodのアルゴリズムで計算し, 様々なDP機構で遠心体を摂動させる。
これらのDPメカニズムは、微分プライベート反復アルゴリズムの収束を保証せず、クラスタの品質を劣化させる。
そこで本研究では,本研究のベースラインとして,先行研究である「収束保証付き微分プライベートk-meansクラスタリング」をさらに拡張する。
このアプローチの目新しさは、クラスタをサブクラスタ化して、将来のcentroid方向に移動する確率の高いcentroidを選択することです。
すべてのロイドのステップにおいて、セントロイドは指数DP機構を用いてノイズで注入される。
実験の結果,本手法は,同一の差分プライバシー要件を維持しつつ,クラスタリング品質の観点から,現在の最先端法,すなわちベースラインアルゴリズムを上回っていることが示唆された。
クラスタリングの品質はワインとBreast_Cancerデータセットのベースラインの4.13倍と2.83倍に向上した。
関連論文リスト
- Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - Differentially Private Random Block Coordinate Descent [51.62669821275571]
スケッチ行列を用いて各反復における確率の異なる複数の座標を選択する差分プライベートな座標降下法を提案する。
提案アルゴリズムはDP-CDと従来のDP-SGDの両方を一般化し,有効性を保証する。
論文 参考訳(メタデータ) (2024-12-22T15:06:56Z) - Differentially Private Clustered Federated Learning [4.768272342753616]
フェデレートラーニング(FL)は、厳格なデータプライバシ保証を提供するために、しばしば差分プライバシ(DP)を取り入れる。
以前の研究は、クラスタリングクライアント(クラスタ化FL)を介してバニラFL設定における高構造データ不均一性に対処しようとした。
システム内のDPノイズに対して頑健で,基盤となるクライアントのクラスタを正しく識別する,差分プライベートクラスタリングFLのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T17:03:31Z) - Fuzzy K-Means Clustering without Cluster Centroids [21.256564324236333]
ファジィK平均クラスタリングは教師なしデータ分析において重要な手法である。
本稿では,クラスタセントロイドへの依存を完全に排除する,ファジィテクストK-Meansクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-07T12:25:03Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Determinantal consensus clustering [77.34726150561087]
本稿では,クラスタリングアルゴリズムのランダム再起動における決定点プロセス (DPP) の利用を提案する。
DPPは部分集合内の中心点の多様性を好んでいる。
DPPとは対照的に、この手法は多様性の確保と、すべてのデータフェースについて良好なカバレッジを得るために失敗することを示す。
論文 参考訳(メタデータ) (2021-02-07T23:48:24Z) - Differentially Private Clustering via Maximum Coverage [7.059472280274009]
我々は、個々のデータのプライバシーを維持しながら、計量空間におけるクラスタリングの問題を研究する。
一定の乗法誤差と低い加算誤差を持つ差分アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-27T22:11:18Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z) - Differentially Private k-Means Clustering with Guaranteed Convergence [5.335316436366718]
反復的なクラスタリングアルゴリズムは、データの背後にある洞察を学習するのに役立ちます。
敵は、背景知識によって個人のプライバシーを推測することができる。
このような推論攻撃に対して個人のプライバシを保護するため、反復クラスタリングアルゴリズムの差分プライバシー(DP)を広く研究している。
論文 参考訳(メタデータ) (2020-02-03T22:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。