論文の概要: M$^2$M: A general method to perform various data analysis tasks from a
differentially private sketch
- arxiv url: http://arxiv.org/abs/2211.14062v1
- Date: Fri, 25 Nov 2022 12:37:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 18:31:40.632108
- Title: M$^2$M: A general method to perform various data analysis tasks from a
differentially private sketch
- Title(参考訳): m$^2$m:微分プライベートスケッチから様々なデータ分析タスクを実行する一般的な方法
- Authors: Florimond Houssiau, Vincent Schellekens, Antoine Chatalic, Shreyas
Kumar Annamraju, Yves-Alexandre de Montjoye
- Abstract要約: 本稿では,1つのプライベートスケッチから幅広いデータ探索タスクを実行するための汎用モーメント(M$2$M)手法を提案する。
個人スケッチから統計を確実に推定し,分類モデルを訓練するのに有効であることを示す。
- 参考スコア(独自算出の注目度): 3.8144790845450074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential privacy is the standard privacy definition for performing
analyses over sensitive data. Yet, its privacy budget bounds the number of
tasks an analyst can perform with reasonable accuracy, which makes it
challenging to deploy in practice. This can be alleviated by private sketching,
where the dataset is compressed into a single noisy sketch vector which can be
shared with the analysts and used to perform arbitrarily many analyses.
However, the algorithms to perform specific tasks from sketches must be
developed on a case-by-case basis, which is a major impediment to their use. In
this paper, we introduce the generic moment-to-moment (M$^2$M) method to
perform a wide range of data exploration tasks from a single private sketch.
Among other things, this method can be used to estimate empirical moments of
attributes, the covariance matrix, counting queries (including histograms), and
regression models. Our method treats the sketching mechanism as a black-box
operation, and can thus be applied to a wide variety of sketches from the
literature, widening their ranges of applications without further engineering
or privacy loss, and removing some of the technical barriers to the wider
adoption of sketches for data exploration under differential privacy. We
validate our method with data exploration tasks on artificial and real-world
data, and show that it can be used to reliably estimate statistics and train
classification models from private sketches.
- Abstract(参考訳): 差分プライバシーは、機密データに対して分析を行うための標準的なプライバシー定義である。
しかし、そのプライバシー予算は、アナリストが合理的な精度で実行できるタスクの数を制限しているため、実際にデプロイすることは困難である。
これは、データセットを1つのノイズの多いスケッチベクトルに圧縮して、アナリストと共有し、任意に多くの分析を行う、プライベートスケッチによって緩和することができる。
しかし、スケッチから特定のタスクを実行するアルゴリズムはケースバイケースで開発されなければならない。
本稿では,1つのプライベートスケッチから幅広いデータ探索タスクを実行するための汎用的モーメント・ツー・モーメント法(m$^2$m)を提案する。
この方法は、属性の経験的モーメント、共分散行列、クエリ数(ヒストグラムを含む)、回帰モデルの推定に使うことができる。
本手法は,スケッチ機構をブラックボックス操作として扱うことにより,文献から得られる多種多様なスケッチに適用し,さらなる工学的・プライバシー的損失を伴わずに応用範囲を広げ,微分プライバシー下でのデータ探索のためのスケッチを広く採用するための技術的障壁を取り除く。
本手法を,人工および実世界のデータを用いたデータ探索タスクで検証し,個人のスケッチから統計や分類モデルを確実に推定できることを示す。
関連論文リスト
- PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - SoK: Privacy-Preserving Data Synthesis [72.92263073534899]
本稿では,プライバシ保護データ合成(PPDS)に注目し,その分野の総合的な概要,分析,議論を行う。
PPDSでは,統計的手法と深層学習(DL)に基づく手法の2つの顕著な研究を統一するマスターレシピを作成した。
論文 参考訳(メタデータ) (2023-07-05T08:29:31Z) - Generating Private Synthetic Data with Genetic Algorithms [29.756119782419955]
基礎となる機密データセットの統計特性を近似した微分プライベートな合成データを効率的に生成する問題について検討する。
ゼロ階最適化に基づく遺伝的アルゴリズムであるPrivate-GSDを提案する。
そこで,Private-GSDは,非微分クエリにおいて,微分可能なクエリを近似する精度で,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-05T21:19:37Z) - One-shot Empirical Privacy Estimation for Federated Learning [43.317478030880956]
ワンショット」アプローチは、モデルパラメータに適合する単一トレーニング実行において、モデルのプライバシ損失の効率的な監査や推定を可能にする。
提案手法は,ガウス機構下でのプライバシー損失を正当に推定できることを示す。
論文 参考訳(メタデータ) (2023-02-06T19:58:28Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z) - Differentially Private Simple Linear Regression [2.614403183902121]
差分プライバシーを満たす単純な線形回帰のアルゴリズムについて検討する。
小データセットに対する単純な線形回帰のための微分プライベートアルゴリズムの設計を考察する。
設定に適応するアルゴリズムのスペクトルの性能について検討する。
論文 参考訳(メタデータ) (2020-07-10T04:28:43Z) - A One-Pass Private Sketch for Most Machine Learning Tasks [48.17461258268463]
差別化プライバシ(DP)は、正式な証明可能な保証を通じて、プライバシとユーティリティのトレードオフを説明する魅力的なプライバシ定義である。
本稿では,回帰,分類,密度推定など,多数の機械学習タスクをサポートするプライベートスケッチを提案する。
このスケッチは,局所性に敏感なハッシュをインデックス化して,効率的なワンパスアルゴリズムで構築したランダムな一致テーブルで構成されている。
論文 参考訳(メタデータ) (2020-06-16T17:47:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。