論文の概要: A note on differentially private clustering with large additive error
- arxiv url: http://arxiv.org/abs/2009.13317v1
- Date: Mon, 28 Sep 2020 13:40:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 22:33:49.112637
- Title: A note on differentially private clustering with large additive error
- Title(参考訳): 大きな加算誤差をもつ差分プライベートクラスタリングに関する一考察
- Authors: Huy L. Nguyen
- Abstract要約: ほぼ同じ加法誤差でククラスタリングを行うための微分プライベートアルゴリズムを得るための簡単な手法を述べる。
このアプローチは、プライバシーの考慮から独立した単純な観察と、一定の近似を持つ既存のプライベートアルゴリズムの組み合わせである。
- 参考スコア(独自算出の注目度): 15.508460240818575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this note, we describe a simple approach to obtain a differentially
private algorithm for k-clustering with nearly the same multiplicative factor
as any non-private counterpart at the cost of a large polynomial additive
error. The approach is the combination of a simple geometric observation
independent of privacy consideration and any existing private algorithm with a
constant approximation.
- Abstract(参考訳): 本稿では, k-clustering の微分プライベートなアルゴリズムを, 大多項式加法誤差を犠牲にして, 任意の非プライベートなアルゴリズムとほぼ同じ乗法係数で求める方法について述べる。
このアプローチは、プライバシーを考慮した単純な幾何学的観察と、一定の近似を持つ既存のプライベートアルゴリズムの組み合わせである。
関連論文リスト
- Differentially-Private Hierarchical Clustering with Provable
Approximation Guarantees [79.59010418610625]
階層クラスタリングのための微分プライベート近似アルゴリズムについて検討する。
例えば、$epsilon$-DPアルゴリズムは入力データセットに対して$O(|V|2/epsilon)$-additiveエラーを示さなければならない。
本稿では,ブロックを正確に復元する1+o(1)$近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-31T19:14:30Z) - Robustness Implies Privacy in Statistical Estimation [16.061651295129302]
本研究では,高次元統計学における敵のプライバシーと差分プライバシーの関係について検討する。
プライバシーから堅牢性への最初のブラックボックスの削減は、最適なトレードオフを伴うプライベートな推定器を生み出すことができる。
また, アルゴリズムは, ほぼ最適に崩壊したサンプルに対して頑健である。
論文 参考訳(メタデータ) (2022-12-09T18:07:30Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Personalized Federated Learning via Convex Clustering [72.15857783681658]
本稿では,局所凸型ユーザコストを用いた個人化フェデレーション学習のためのアルゴリズム群を提案する。
提案するフレームワークは,異なるユーザのモデルの違いをペナル化する凸クラスタリングの一般化に基づいている。
論文 参考訳(メタデータ) (2022-02-01T19:25:31Z) - Differentially-Private Clustering of Easy Instances [67.04951703461657]
異なるプライベートクラスタリングでは、個々のデータポイントに関する情報を公開せずに、$k$のクラスタセンターを特定することが目標だ。
我々は、データが"簡単"である場合にユーティリティを提供する実装可能な差分プライベートクラスタリングアルゴリズムを提供する。
我々は、非プライベートクラスタリングアルゴリズムを簡単なインスタンスに適用し、結果をプライベートに組み合わせることのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-29T08:13:56Z) - Differentially Private Algorithms for Clustering with Stability
Assumptions [0.76146285961466]
安定な入力をクラスタリングするためのより単純なアルゴリズムを提案する。
我々はWasserstein距離とk-meansコストの両方でその実用性を分析する。
我々のアルゴリズムは、k-medianインスタンスの「ニッチ」と微分プライバシの局所モデルのためのストレートフォワードアナログを持つ。
論文 参考訳(メタデータ) (2021-06-11T00:45:39Z) - Differentially Private Correlation Clustering [23.93805663525436]
相関クラスタリングは教師なし機械学習で広く使われている手法である。
個人のプライバシーが懸念されるアプリケーションに動機づけられて、微分プライベート相関クラスタリングの研究を開始します。
論文 参考訳(メタデータ) (2021-02-17T17:27:48Z) - Differentially Private Clustering via Maximum Coverage [7.059472280274009]
我々は、個々のデータのプライバシーを維持しながら、計量空間におけるクラスタリングの問題を研究する。
一定の乗法誤差と低い加算誤差を持つ差分アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-27T22:11:18Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z) - Tighter Generalization Bounds for Iterative Differentially Private
Learning Algorithms [95.73230376153872]
本稿では,反復学習アルゴリズムにおける一般化とプライバシ保護の関係を2つのステップで検討する。
我々は、$(varepsilon, delta)$-differential privacyは、マルチデータベース学習アルゴリズムに縛られる平均的な一般化を意味することを証明している。
次に,ほとんどの学習アルゴリズムが共有する反復的な性質が,プライバシーの保護とさらなる一般化にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2020-07-18T09:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。