論文の概要: Smooth Anonymity for Sparse Binary Matrices
- arxiv url: http://arxiv.org/abs/2207.06358v1
- Date: Wed, 13 Jul 2022 17:09:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 16:35:45.630958
- Title: Smooth Anonymity for Sparse Binary Matrices
- Title(参考訳): スパース二項行列の平滑匿名性
- Authors: Hossein Esfandiari, Alessandro Epasto, Vahab Mirrokni, Andres Munoz
Medina, Sergei Vassilvitskii
- Abstract要約: この作業では、スパースデータセット全体を第三者とプライベートに操作し、共有することを目的としています。
実際、差分プライバシーは、プライバシの金の標準として現れていますが、スパースデータセットの共有に関しては、主要な結果の1つとして、偏微分プライベートメカニズムが極めて弱いプライバシ保証を持つ運命にあることを証明しています。
我々は、スムーズな$k$匿名性を示し、スムーズな$k$匿名性を提供する単純なアルゴリズムを設計する。
- 参考スコア(独自算出の注目度): 84.60886611165573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When working with user data providing well-defined privacy guarantees is
paramount. In this work we aim to manipulate and share an entire sparse dataset
with a third party privately. In fact, differential privacy has emerged as the
gold standard of privacy, however, when it comes to sharing sparse datasets, as
one of our main results, we prove that \emph{any} differentially private
mechanism that maintains a reasonable similarity with the initial dataset is
doomed to have a very weak privacy guarantee. Hence we need to opt for other
privacy notions such as $k$-anonymity are better at preserving utility in this
context. In this work we present a variation of $k$-anonymity, which we call
smooth $k$-anonymity and design simple algorithms that efficiently provide
smooth $k$-anonymity. We further perform an empirical evaluation to back our
theoretical guarantees, and show that our algorithm improves the performance in
downstream machine learning tasks on anonymized data.
- Abstract(参考訳): 適切に定義されたプライバシー保証を提供するユーザデータを扱う場合、最重要である。
この作業では、スパースデータセット全体をサードパーティとプライベートに操作し、共有することを目指しています。
実際、差分プライバシはプライバシの黄金の標準として浮上していますが、スパースデータセットの共有に関しては、私たちの主な結果の1つとして、初期データセットと合理的な類似性を維持する差分プライバシ機構が、非常に弱いプライバシ保証を持つように運命づけられていることを証明しています。
したがって、$k$-anonymityのような他のプライバシー概念を選択すれば、このコンテキストでのユーティリティの保存がより簡単になります。
この研究では、smomous $k$-anonymityと呼ばれる$k$-anonymityのバリエーションを示し、smomous $k$-anonymityを効率的に提供する単純なアルゴリズムを設計する。
さらに,理論的な保証を裏付ける経験的評価を行い,アルゴリズムが匿名化データにおける下流機械学習タスクの性能を向上させることを示す。
関連論文リスト
- Preserving Node-level Privacy in Graph Neural Networks [8.823710998526705]
グラフニューラルネットワーク(GNN)におけるノードレベルのプライバシの問題に対処するソリューションを提案する。
提案プロトコルは,1) 特定のノードサンプリング戦略と一連の調整操作を用いて所望の特性を持つサブグラフを生成するHeterPoissonと呼ばれるサンプリングルーチンと,2) 一般的に使用されるガウスノイズの代わりに対称ラプラスノイズを利用するランダム化ルーチンとからなる。
提案プロトコルは,実世界の5つのデータセットを用いた実験によって実証された,優れた性能でGNN学習を可能にする。
論文 参考訳(メタデータ) (2023-11-12T16:21:29Z) - Share Your Representation Only: Guaranteed Improvement of the
Privacy-Utility Tradeoff in Federated Learning [47.042811490685324]
この情報漏洩のリスクを減らし、最先端の差分プライベートアルゴリズムを使っても、無料ではない。
本稿では,異なるプライバシ保証を持つフェデレーションモデルにおいて,様々な当事者が協調的に洗練する表現学習の目的について考察する。
同じ小さなプライバシ予算の下で、以前の作業よりも大幅にパフォーマンスが向上するのを観察する。
論文 参考訳(メタデータ) (2023-09-11T14:46:55Z) - Muffliato: Peer-to-Peer Privacy Amplification for Decentralized Optimization and Averaging [20.39986955578245]
ローカルディファレンシャルプライバシ(LDP)の緩和であるペアワイズネットワークディファレンシャルプライバシを導入する。
我々は、局所勾配降下ステップとゴシップ平均化を交互に交互に行う、微分プライベートな分散最適化アルゴリズムを導出する。
我々のアルゴリズムは,グラフ内のノード間距離の関数として,プライバシー保証を増幅することを示す。
論文 参考訳(メタデータ) (2022-06-10T13:32:35Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Privacy Adversarial Network: Representation Learning for Mobile Data
Privacy [33.75500773909694]
モバイルユーザのためのクラウドベースのインテリジェントサービスの増加は、プロバイダに送信するユーザデータを要求している。
以前の作業では、例えばノイズを追加して識別情報を削除したり、匿名化された特徴などのデータから抽出された表現を送信したりするといった、データの難読化が行われていた。
私たちは、敵対的な学習を活用して、プライバシとユーティリティのバランスを改善する。
論文 参考訳(メタデータ) (2020-06-08T09:42:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。