論文の概要: Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning
- arxiv url: http://arxiv.org/abs/2204.00850v1
- Date: Sat, 2 Apr 2022 12:50:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 07:13:03.274557
- Title: Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning
- Title(参考訳): 差異プライバシを検証したカテゴリデータの作成:概念と機械学習への応用
- Authors: H\'eber H. Arcolezi
- Abstract要約: 差別化プライバシは、プライバシとユーティリティのトレードオフの定量化を可能にする正式な定義である。
ローカルDP(LDP)モデルでは、ユーザはデータをサーバに送信する前に、ローカルにデータをサニタイズすることができる。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成できると結論付けました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Private and public organizations regularly collect and analyze digitalized
data about their associates, volunteers, clients, etc. However, because most
personal data are sensitive, there is a key challenge in designing
privacy-preserving systems. To tackle privacy concerns, research communities
have proposed different methods to preserve privacy, with Differential privacy
(DP) standing out as a formal definition that allows quantifying the
privacy-utility trade-off. Besides, with the local DP (LDP) model, users can
sanitize their data locally before transmitting it to the server. The objective
of this thesis is thus two-fold: O$_1$) To improve the utility and privacy in
multiple frequency estimates under LDP guarantees, which is fundamental to
statistical learning. And O$_2$) To assess the privacy-utility trade-off of
machine learning (ML) models trained over differentially private data. For
O$_1$, we first tackled the problem from two "multiple" perspectives, i.e.,
multiple attributes and multiple collections throughout time, while focusing on
utility. Secondly, we focused our attention on the multiple attributes aspect
only, in which we proposed a solution focusing on privacy while preserving
utility. In both cases, we demonstrate through analytical and experimental
validations the advantages of our proposed solutions over state-of-the-art LDP
protocols. For O$_2$, we empirically evaluated ML-based solutions designed to
solve real-world problems while ensuring DP guarantees. Indeed, we mainly used
the input data perturbation setting from the privacy-preserving ML literature.
This is the situation in which the whole dataset is sanitized independently
and, thus, we implemented LDP algorithms from the perspective of the
centralized data owner. In all cases, we concluded that differentially private
ML models achieve nearly the same utility metrics as non-private ones.
- Abstract(参考訳): 民間および公共の組織は、定期的に、仲間、ボランティア、クライアントなどに関するデジタルデータを収集し、分析する。
しかし、ほとんどの個人データは機密性が高いため、プライバシー保護システムを設計する上で重要な課題がある。
プライバシの懸念に対処するため、研究コミュニティはプライバシを保護するための異なる方法を提案し、差分プライバシ(dp)は、プライバシ利用のトレードオフを定量化するための公式な定義として位置づけられている。
さらに、ローカルdp(ldp)モデルでは、サーバに送信する前にデータをローカルにサニタイズすることができる。
この論文の目的は2つある: o$_1$) ldp保証の下での複数の周波数推定における有用性とプライバシを改善することである。
そして、O$_2$) 異なるプライベートデータでトレーニングされた機械学習(ML)モデルのプライバシユーティリティトレードオフを評価する。
o$_1$の場合、私たちは最初に、ユーティリティにフォーカスしながら、複数の属性と複数のコレクションという、2つの"多重"の観点から問題に取り組んだ。
第2に,複数の属性の側面のみに注目して,有用性を維持しつつプライバシを重視したソリューションを提案する。
どちらの場合も、現状のLCPプロトコルよりも提案したソリューションの利点を解析的および実験的に検証する。
O$_2$の場合,DP保証を確保しつつ実世界の問題を解決するMLベースのソリューションを実証的に評価した。
実際、我々はプライバシ保護ML文献からの入力データ摂動設定を主に使用した。
これは、データセット全体が独立して衛生化されている状況であり、集中型データオーナの観点からLDPアルゴリズムを実装した。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成すると結論付けた。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Personalized Differential Privacy for Ridge Regression [3.4751583941317166]
我々はPDP-OP(Personalized-DP Output Perturbation Method)を導入し、データポイントごとのプライバシレベルに応じてリッジ回帰モデルのトレーニングを可能にする。
我々は、PDP-OPの厳密なプライバシー証明と、結果モデルの正確性を保証する。
我々はPDP-OPがJorgensenらのパーソナライズされたプライバシー技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-30T16:00:14Z) - Federated Experiment Design under Distributed Differential Privacy [31.06808163362162]
我々は,サービス提供者に対する信頼を最小限にしつつ,ユーザのプライバシの厳格な保護に注力する。
現代のA/Bテストにおいて重要な要素であるが、これまではプライベート分散実験は研究されていない。
これらのメカニズムは、実際に一般的に見られる非常に多くの参加者を扱うために、どのようにスケールアップできるかを示す。
論文 参考訳(メタデータ) (2023-11-07T22:38:56Z) - Privacy Preserving Large Language Models: ChatGPT Case Study Based Vision and Framework [6.828884629694705]
本稿では,LLMのプライバシ生成モデルであるPrivChatGPTという概念モデルを提案する。
PrivChatGPTは、データキュレーション/前処理中にユーザのプライバシを保護し、プライベートコンテキストの保存と大規模データのプライベートトレーニングプロセスという2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-19T06:55:13Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Probing the Transition to Dataset-Level Privacy in ML Models Using an
Output-Specific and Data-Resolved Privacy Profile [23.05994842923702]
差分プライバシーメカニズムを用いてデータセットでトレーニングされたモデルが、近隣のデータセットでトレーニングされた結果の分布によってカバーされる範囲を定量化するプライバシー指標について検討する。
プライバシプロファイルは、近隣のディストリビューションで発生する不明瞭性への観察された遷移を、$epsilon$の減少として調査するために使用できることを示す。
論文 参考訳(メタデータ) (2023-06-27T20:39:07Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。