論文の概要: Segmented Private Data Aggregation in the Multi-message Shuffle Model
- arxiv url: http://arxiv.org/abs/2407.19639v2
- Date: Sun, 22 Dec 2024 08:12:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:50:33.993645
- Title: Segmented Private Data Aggregation in the Multi-message Shuffle Model
- Title(参考訳): マルチメッセージシャッフルモデルにおけるセグメンテッド・プライベート・データ・アグリゲーション
- Authors: Shaowei Wang, Hongqiao Che, Sufen Zeng, Ruilin Yang, Hui Jiang, Peigen Ye, Kaiqi Yu, Rundong Mei, Shaozheng Huang, Wei Yang, Bangzhou Xin,
- Abstract要約: 我々は、差分プライバシーのマルチメッセージシャッフルモデルにおいて、セグメント化されたプライベートデータアグリゲーションの研究を開拓した。
当社のフレームワークでは,ユーザに対するフレキシブルなプライバシ保護と,アグリゲーションサーバのための拡張ユーティリティを導入している。
提案手法は,既存手法と比較して推定誤差を約50%削減する。
- 参考スコア(独自算出の注目度): 9.298982907061099
- License:
- Abstract: The shuffle model of differential privacy (DP) offers compelling privacy-utility trade-offs in decentralized settings (e.g., internet of things, mobile edge networks). Particularly, the multi-message shuffle model, where each user may contribute multiple messages, has shown that accuracy can approach that of the central model of DP. However, existing studies typically assume a uniform privacy protection level for all users, which may deter conservative users from participating and prevent liberal users from contributing more information, thereby reducing the overall data utility, such as the accuracy of aggregated statistics. In this work, we pioneer the study of segmented private data aggregation within the multi-message shuffle model of DP, introducing flexible privacy protection for users and enhanced utility for the aggregation server. Our framework not only protects users' data but also anonymizes their privacy level choices to prevent potential data leakage from these choices. To optimize the privacy-utility-communication trade-offs, we explore approximately optimal configurations for the number of blanket messages and conduct almost tight privacy amplification analyses within the shuffle model. Through extensive experiments, we demonstrate that our segmented multi-message shuffle framework achieves a reduction of about 50\% in estimation error compared to existing approaches, significantly enhancing both privacy and utility.
- Abstract(参考訳): ディファレンシャルプライバシ(DP)のシャッフルモデルは、分散された設定(モノのインターネット、モバイルエッジネットワークなど)において、魅力的なプライバシとユーティリティのトレードオフを提供します。
特に、各ユーザが複数のメッセージにコントリビュートできるマルチメッセージシャッフルモデルでは、DPの中央モデルに精度がアプローチできることが示されている。
しかし、既存の研究では、保守的なユーザーがより多くの情報を提供するのを妨げ、その結果、集計された統計の正確さなどの全体的なデータの有用性を低下させる可能性があるため、すべてのユーザーに対して一様にプライバシー保護レベルを仮定している。
本研究では,DPのマルチメッセージシャッフルモデルにおけるセグメント化されたプライベートデータアグリゲーションの研究の先駆者であり,ユーザに対するフレキシブルなプライバシ保護とアグリゲーションサーバのための拡張ユーティリティを導入している。
当社のフレームワークは,ユーザのデータを保護するだけでなく,プライバシレベルの選択を匿名化して,潜在的なデータ漏洩を防止する。
プライバシ・ユーティリティ・コミュニケーションのトレードオフを最適化するために,スクラッチメッセージ数に対するほぼ最適な設定を検討し,シャッフルモデル内でほぼ厳密なプライバシの増幅分析を行う。
広範にわたる実験により,我々のセグメント化されたマルチメッセージシャッフルフレームワークは,既存手法と比較して推定誤差を約50%削減し,プライバシとユーティリティの両方を大幅に向上させることを示した。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Enhanced Privacy Bound for Shuffle Model with Personalized Privacy [32.08637708405314]
Differential Privacy(DP)は、ローカルユーザと中央データキュレーターの間の中間信頼サーバを導入する、強化されたプライバシプロトコルである。
これは、局所的にランダム化されたデータを匿名化しシャッフルすることで、中央のDP保証を著しく増幅する。
この研究は、各ユーザーごとにパーソナライズされたローカルプライバシを必要とする、より実践的な設定のために、中央のプライバシ境界を導出することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T16:11:56Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Federated Experiment Design under Distributed Differential Privacy [31.06808163362162]
我々は,サービス提供者に対する信頼を最小限にしつつ,ユーザのプライバシの厳格な保護に注力する。
現代のA/Bテストにおいて重要な要素であるが、これまではプライベート分散実験は研究されていない。
これらのメカニズムは、実際に一般的に見られる非常に多くの参加者を扱うために、どのようにスケールアップできるかを示す。
論文 参考訳(メタデータ) (2023-11-07T22:38:56Z) - Probing the Transition to Dataset-Level Privacy in ML Models Using an
Output-Specific and Data-Resolved Privacy Profile [23.05994842923702]
差分プライバシーメカニズムを用いてデータセットでトレーニングされたモデルが、近隣のデータセットでトレーニングされた結果の分布によってカバーされる範囲を定量化するプライバシー指標について検討する。
プライバシプロファイルは、近隣のディストリビューションで発生する不明瞭性への観察された遷移を、$epsilon$の減少として調査するために使用できることを示す。
論文 参考訳(メタデータ) (2023-06-27T20:39:07Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning [0.0]
差別化プライバシは、プライバシとユーティリティのトレードオフの定量化を可能にする正式な定義である。
ローカルDP(LDP)モデルでは、ユーザはデータをサーバに送信する前に、ローカルにデータをサニタイズすることができる。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成できると結論付けました。
論文 参考訳(メタデータ) (2022-04-02T12:50:14Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Privacy Amplification via Random Check-Ins [38.72327434015975]
Differentially Private Gradient Descent (DP-SGD) は、多くのアプリケーションにおいて、機密データを学習するための基本的な構成要素となっている。
本稿では,DP-SGD のような反復的手法を,多くのデバイス(クライアント)に分散したフェデレーションラーニング(FL)の設定において実施することに焦点を当てる。
当社の主なコントリビューションは,各クライアントがローカルかつ独立に行うランダムな参加決定にのみ依存する,Emphrandom Check-in分散プロトコルです。
論文 参考訳(メタデータ) (2020-07-13T18:14:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。