論文の概要: Bipartite Randomized Response Mechanism for Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2504.20926v2
- Date: Mon, 29 Sep 2025 08:31:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 14:13:47.264485
- Title: Bipartite Randomized Response Mechanism for Local Differential Privacy
- Title(参考訳): 局所微分プライバシーのための二部ランダム化応答機構
- Authors: Shun Zhang, Hai Zhu, Zhili Chen, Haibo Hu,
- Abstract要約: ローカル微分プライバシー(LDP)は、最近、各ユーザのプライバシをデータアナリストから保護するための強力なプライバシ尺度になっている。
我々のゴールは、グローバルな予測エラーを持つアイテムを可能な限り小さくリリースする、微分プライベートなメカニズムを設計することです。
- 参考スコア(独自算出の注目度): 14.32248634830699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing importance of data privacy, Local Differential Privacy (LDP) has recently become a strong measure of privacy for protecting each user's privacy from data analysts without relying on a trusted third party. In this paper, we consider the problem of high-utility differentially private release. Given a domain of finite integers {1,2,...,N} and a distance-defined utility function, our goal is to design a differentially private mechanism that releases an item with the global expected error as small as possible. The most common LDP mechanism for this task is the Generalized Randomized Response (GRR) mechanism that treats all candidates equally except for the true item. In this paper, we introduce Bipartite Randomized Response mechanism (BRR), which adaptively divides all candidates into two parts by utility rankings given priori item. In the local search phase, we confirm how many high-utility candidates to be assigned with high release probability as the true item, which gives the locally optimal bipartite classification of all candidates. For preserving LDP, the global search phase uniformly selects the smallest number of dynamic high-utility candidates obtained locally. In particular, we give explicit formulas on the uniform number of dynamic high-utility candidates. The global expected error of our BRR is always no larger than the GRR, and can offer a decrease with a small and asymptotically exact factor. Extensive experiments demonstrate that BRR outperforms the state-of-the-art methods across the standard metrics and datasets.
- Abstract(参考訳): データプライバシの重要性が高まる中、ローカル微分プライバシ(LDP)は、信頼されたサードパーティに頼らずに、各ユーザのプライバシをデータアナリストから保護するための強力なプライバシ尺度となっている。
本稿では,高実用性差分リリースの問題について考察する。
有限整数 {1,2,...,N} と距離定義ユーティリティ関数の領域が与えられた場合、我々のゴールは、大域的な予測誤差を持つアイテムを可能な限り小さく解放する微分プライベートなメカニズムを設計することである。
このタスクの最も一般的なLDPメカニズムは、真の項目を除いて全ての候補を等しく扱う一般化ランダム化応答(GRR)メカニズムである。
本稿では,BRR(Bipartite Randomized Response Mechanism)を提案する。
局所探索フェーズでは,高能率候補が真の項目として高能率候補が割り当てられているかを確認し,各候補の局所的最適二部分分類を行う。
LDPを保存するために、グローバル検索フェーズは、局所的に得られる最小の動的高ユーティリティ候補を均一に選択する。
特に、動的高ユーティリティ候補の一様個数に関する明示的な公式を与える。
我々のBRRのグローバルな予測誤差は、常にGRRよりも大きくなく、小さくて漸近的に正確な要因で減少する可能性がある。
大規模な実験により、BRRは標準的なメトリクスとデータセットで最先端のメソッドよりも優れています。
関連論文リスト
- Frequency Estimation of Correlated Multi-attribute Data under Local Differential Privacy [5.258253745672122]
ローカル微分プライバシー(LDP)は、ユーザのデータプライバシを保護する強力なツールである。
既存のLDPメカニズムは、すべての属性にプライバシ予算を分割するか、それぞれの属性を独立して扱うかのいずれかである。
我々は属性間の相関を利用して実用性を大幅に向上する新しいLCP機構であるCorrelated Randomized Response (Corr-RR)を提案する。
論文 参考訳(メタデータ) (2025-07-23T13:52:45Z) - Optimal Allocation of Privacy Budget on Hierarchical Data Release [48.96399034594329]
本稿では,階層データリリースにおける最適プライバシ予算割り当ての問題に対処する。
データの粒度とプライバシー損失のトレードオフを考慮しつつ、全プライバシー予算の対象となるデータユーティリティの最大化を目指している。
論文 参考訳(メタデータ) (2025-05-16T05:25:11Z) - Locally Differentially Private Frequency Estimation via Joint Randomized Response [14.398663407098836]
ローカル微分プライバシー(LDP)は、信頼できないデータコレクタに対してデータコントリビュータにデータプライバシの強力な理論的保証を提供する強力なツールとして広く認識されている。
既存のLDPメカニズムに共通するのは、プライバシ保護とデータユーティリティのレベルでのトレードオフである。
本稿では, 相関データ摂動に基づく新しい共振応答(JRR)機構を提案し, 局所的に個人周波数を推定する。
論文 参考訳(メタデータ) (2025-05-15T14:41:03Z) - From Randomized Response to Randomized Index: Answering Subset Counting Queries with Local Differential Privacy [27.59934932590226]
ローカル微分プライバシ(LDP)は、個々のデータプライバシを保護するための主要なプライバシモデルである。
我々は、値の摂動ではなく、値のインデックスにランダム化を適用する別のアプローチを提案する。
乱数化インデックスのデニビリティに着想を得て,集合値データに対するサブセットカウントクエリに応答するCRIADを提案する。
論文 参考訳(メタデータ) (2025-04-24T13:08:11Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - AAA: an Adaptive Mechanism for Locally Differential Private Mean Estimation [42.95927712062214]
ローカルディファレンシャルプライバシ(LDP)は、一般的なソフトウェアシステムで採用されている強力なプライバシ標準である。
本稿では, 平均効用に対処する分布認識手法である, 適応型アダプティブ (AAA) 機構を提案する。
我々は、厳密なプライバシー証明、ユーティリティ分析、そしてAAAと最先端のメカニズムを比較した広範な実験を提供する。
論文 参考訳(メタデータ) (2024-04-02T04:22:07Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Bounded and Unbiased Composite Differential Privacy [25.427802467876248]
差分プライバシ(DP)の目的は、隣接する2つのデータベース間で区別できない出力分布を生成することにより、プライバシを保護することである。
既存のソリューションでは、後処理やトランケーション技術を使ってこの問題に対処しようとしている。
本稿では,合成確率密度関数を用いて有界および非偏りの出力を生成する新しい微分プライベート機構を提案する。
論文 参考訳(メタデータ) (2023-11-04T04:43:47Z) - On the Privacy-Robustness-Utility Trilemma in Distributed Learning [7.778461949427662]
本稿では,少数の対向マシンに対してロバスト性を保証するアルゴリズムによって得られた誤差を,まず厳密に解析する。
私たちの分析は、プライバシ、堅牢性、ユーティリティの基本的なトレードオフを示しています。
論文 参考訳(メタデータ) (2023-02-09T17:24:18Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning [0.0]
差別化プライバシは、プライバシとユーティリティのトレードオフの定量化を可能にする正式な定義である。
ローカルDP(LDP)モデルでは、ユーザはデータをサーバに送信する前に、ローカルにデータをサニタイズすることができる。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成できると結論付けました。
論文 参考訳(メタデータ) (2022-04-02T12:50:14Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。