論文の概要: Differentially Private Correlation Clustering
- arxiv url: http://arxiv.org/abs/2102.08885v1
- Date: Wed, 17 Feb 2021 17:27:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 21:28:00.316931
- Title: Differentially Private Correlation Clustering
- Title(参考訳): 異なるプライベート相関クラスタリング
- Authors: Mark Bun, Marek Eli\'a\v{s}, Janardhan Kulkarni
- Abstract要約: 相関クラスタリングは教師なし機械学習で広く使われている手法である。
個人のプライバシーが懸念されるアプリケーションに動機づけられて、微分プライベート相関クラスタリングの研究を開始します。
- 参考スコア(独自算出の注目度): 23.93805663525436
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Correlation clustering is a widely used technique in unsupervised machine
learning. Motivated by applications where individual privacy is a concern, we
initiate the study of differentially private correlation clustering. We propose
an algorithm that achieves subquadratic additive error compared to the optimal
cost. In contrast, straightforward adaptations of existing non-private
algorithms all lead to a trivial quadratic error. Finally, we give a lower
bound showing that any pure differentially private algorithm for correlation
clustering requires additive error of $\Omega(n)$.
- Abstract(参考訳): 相関クラスタリングは教師なし機械学習で広く使われている手法である。
個人のプライバシーが懸念されるアプリケーションに動機づけられて、微分プライベート相関クラスタリングの研究を開始します。
本論文では, 最適コストと比較し, 二次加算誤差を実現するアルゴリズムを提案する。
対照的に、既存の非プライベートアルゴリズムの簡単な適応は、すべて自明な二次誤差につながる。
最後に、相関クラスタリングのための任意の純粋微分プライベートアルゴリズムが$\Omega(n)$の加算誤差を必要とすることを示す下界を与える。
関連論文リスト
- Making Old Things New: A Unified Algorithm for Differentially Private Clustering [6.320600791108065]
20年前のアルゴリズムは、いずれのモデルでも、わずかに修正可能であることを示す。
これは統一された図を提供する: ほとんどすべての既知結果とマッチングする一方で、いくつかの改善を可能にします。
論文 参考訳(メタデータ) (2024-06-17T15:31:53Z) - Differentially-Private Hierarchical Clustering with Provable
Approximation Guarantees [79.59010418610625]
階層クラスタリングのための微分プライベート近似アルゴリズムについて検討する。
例えば、$epsilon$-DPアルゴリズムは入力データセットに対して$O(|V|2/epsilon)$-additiveエラーを示さなければならない。
本稿では,ブロックを正確に復元する1+o(1)$近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-31T19:14:30Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Near-Optimal Correlation Clustering with Privacy [37.94795032297396]
相関クラスタリングは教師なし学習における中心的な問題である。
本稿では,相関クラスタリング問題と証明可能なプライバシ保証のための,シンプルで効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-02T22:30:19Z) - Differentially-Private Clustering of Easy Instances [67.04951703461657]
異なるプライベートクラスタリングでは、個々のデータポイントに関する情報を公開せずに、$k$のクラスタセンターを特定することが目標だ。
我々は、データが"簡単"である場合にユーティリティを提供する実装可能な差分プライベートクラスタリングアルゴリズムを提供する。
我々は、非プライベートクラスタリングアルゴリズムを簡単なインスタンスに適用し、結果をプライベートに組み合わせることのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-29T08:13:56Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - A note on differentially private clustering with large additive error [15.508460240818575]
ほぼ同じ加法誤差でククラスタリングを行うための微分プライベートアルゴリズムを得るための簡単な手法を述べる。
このアプローチは、プライバシーの考慮から独立した単純な観察と、一定の近似を持つ既存のプライベートアルゴリズムの組み合わせである。
論文 参考訳(メタデータ) (2020-09-28T13:40:04Z) - Differentially Private Clustering via Maximum Coverage [7.059472280274009]
我々は、個々のデータのプライバシーを維持しながら、計量空間におけるクラスタリングの問題を研究する。
一定の乗法誤差と低い加算誤差を持つ差分アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-27T22:11:18Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z) - Tighter Generalization Bounds for Iterative Differentially Private
Learning Algorithms [95.73230376153872]
本稿では,反復学習アルゴリズムにおける一般化とプライバシ保護の関係を2つのステップで検討する。
我々は、$(varepsilon, delta)$-differential privacyは、マルチデータベース学習アルゴリズムに縛られる平均的な一般化を意味することを証明している。
次に,ほとんどの学習アルゴリズムが共有する反復的な性質が,プライバシーの保護とさらなる一般化にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2020-07-18T09:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。