論文の概要: A Failure-Free and Efficient Discrete Laplace Distribution for Differential Privacy in MPC
- arxiv url: http://arxiv.org/abs/2503.07048v1
- Date: Mon, 10 Mar 2025 08:35:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:44:51.674762
- Title: A Failure-Free and Efficient Discrete Laplace Distribution for Differential Privacy in MPC
- Title(参考訳): MPCにおける差分プライバシのための非破壊かつ効率的な離散型ラプラス分布
- Authors: Ivan Tjuawinata, Jiabo Wang, Mengmeng Yang, Shanxiang Lyu, Huaxiong Wang, Kwok-Yan Lam,
- Abstract要約: MPC で保護された分散計算では、機密情報は MPC の参加者によって計算結果から推論されることがある。
本稿では,この機構をMPCを用いてセキュアに実現した上で,離散的かつ有界なLaplace型摂動機構を提案する。
- 参考スコア(独自算出の注目度): 23.428579838658756
- License:
- Abstract: In an MPC-protected distributed computation, although the use of MPC assures data privacy during computation, sensitive information may still be inferred by curious MPC participants from the computation output. This can be observed, for instance, in the inference attacks on either federated learning or a more standard statistical computation with distributed inputs. In this work, we address this output privacy issue by proposing a discrete and bounded Laplace-inspired perturbation mechanism along with a secure realization of this mechanism using MPC. The proposed mechanism strictly adheres to a zero failure probability, overcoming the limitation encountered on other existing bounded and discrete variants of Laplace perturbation. We provide analyses of the proposed differential privacy (DP) perturbation in terms of its privacy and utility. Additionally, we designed MPC protocols to implement this mechanism and presented performance benchmarks based on our experimental setup. The MPC realization of the proposed mechanism exhibits a complexity similar to the state-of-the-art discrete Gaussian mechanism, which can be considered an alternative with comparable efficiency while providing stronger differential privacy guarantee. Moreover, efficiency of the proposed scheme can be further enhanced by performing the noise generation offline while leaving the perturbation phase online.
- Abstract(参考訳): MPCが保護する分散計算では、MPCの使用は計算中にデータのプライバシを保証するが、微妙な情報は計算結果から好意的なMPC参加者によって推測される。
これは例えば、フェデレーション付き学習または分散入力によるより標準的な統計計算に対する推論攻撃で観察することができる。
本稿では、この出力プライバシー問題に対して、MPCを用いたセキュアな実現とともに、離散的にラプラスにインスパイアされた摂動機構を提案する。
提案したメカニズムは、ラプラス摂動の他の有界かつ離散的な変種に遭遇する制限を克服し、ゼロ失敗確率を厳密に守っている。
本稿では、そのプライバシーと実用性の観点から、提案した差分プライバシー(DP)摂動の分析を行う。
さらに,この機構を実装するためにMPCプロトコルを設計し,実験的な設定に基づいて性能ベンチマークを行った。
提案機構のMPC実現は、より強力な差分プライバシー保証を提供しながら、同等の効率で代替できる、最先端の離散ガウス機構と類似した複雑さを示す。
さらに、摂動フェーズをオンラインに残しながら、ノイズ発生をオフラインにすることで、提案手法の効率をさらに向上することができる。
関連論文リスト
- Privacy-Aware Multi-Device Cooperative Edge Inference with Distributed Resource Bidding [3.9287497907611875]
モバイルエッジコンピューティング(MEC)は、人工知能(AI)アプリケーションのサポートにおいてモバイルデバイス(MD)に権限を与えている。
デバイス-エッジ協調型AI推論という大きな約束にもかかわらず、データのプライバシーはますます懸念される。
プライバシーに配慮した多デバイス協調型エッジ推論システムを開発した。
論文 参考訳(メタデータ) (2024-12-30T16:37:17Z) - CorBin-FL: A Differentially Private Federated Learning Mechanism using Common Randomness [6.881974834597426]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
相関2値量子化を用いて差分プライバシーを実現するプライバシー機構であるCorBin-FLを導入する。
また,PLDP,ユーザレベル,サンプルレベルの中央差分プライバシー保証に加えて,AugCorBin-FLも提案する。
論文 参考訳(メタデータ) (2024-09-20T00:23:44Z) - Universal Exact Compression of Differentially Private Mechanisms [47.57948804514929]
本稿では,任意の局所乱数化器の圧縮とシミュレートを目的とした,Poisson private representation (PPR) と呼ばれる新しい構成を提案する。
PPRは、データの結合分布と元のローカルランダム化器の出力を保存する。
実験結果から、PPRはコミュニケーション、正確性、中央および局所的な差分プライバシーの間のトレードオフを一貫して改善することが示された。
論文 参考訳(メタデータ) (2024-05-28T23:54:31Z) - Bounded and Unbiased Composite Differential Privacy [25.427802467876248]
差分プライバシ(DP)の目的は、隣接する2つのデータベース間で区別できない出力分布を生成することにより、プライバシを保護することである。
既存のソリューションでは、後処理やトランケーション技術を使ってこの問題に対処しようとしている。
本稿では,合成確率密度関数を用いて有界および非偏りの出力を生成する新しい微分プライベート機構を提案する。
論文 参考訳(メタデータ) (2023-11-04T04:43:47Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Robust Control for Dynamical Systems With Non-Gaussian Noise via Formal
Abstractions [59.605246463200736]
雑音分布の明示的な表現に依存しない新しい制御器合成法を提案する。
まず、連続制御系を有限状態モデルに抽象化し、離散状態間の確率的遷移によってノイズを捕捉する。
我々は最先端の検証技術を用いてマルコフ決定プロセスの間隔を保証し、これらの保証が元の制御システムに受け継がれるコントローラを演算する。
論文 参考訳(メタデータ) (2023-01-04T10:40:30Z) - Introducing the Huber mechanism for differentially private low-rank
matrix completion [9.944551494217075]
差分プライバシーを維持するための新しいノイズ付加機構を提案する。
提案するHuberメカニズムは,既存の差分プライバシーメカニズムに対して評価される。
提案機構は,Laplace機構と同様のエプシロン差分プライバシーを実現する。
論文 参考訳(メタデータ) (2022-06-16T04:33:06Z) - Additive Logistic Mechanism for Privacy-Preserving Self-Supervised
Learning [26.783944764936994]
ニューラルネットワークの重みを自己教師付き学習アルゴリズムでトレーニングする際のプライバシーリスクについて検討する。
我々は、微調整後の重み付けにノイズを加えるプライバシー保護アルゴリズムを設計する。
提案した保護アルゴリズムは,攻撃精度をランダムな推測にほぼ等しい50%に効果的に低減できることを示す。
論文 参考訳(メタデータ) (2022-05-25T01:33:52Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Sampling-Based Robust Control of Autonomous Systems with Non-Gaussian
Noise [59.47042225257565]
雑音分布の明示的な表現に依存しない新しい計画法を提案する。
まず、連続系を離散状態モデルに抽象化し、状態間の確率的遷移によってノイズを捕捉する。
いわゆる区間マルコフ決定過程(iMDP)の遷移確率区間におけるこれらの境界を捉える。
論文 参考訳(メタデータ) (2021-10-25T06:18:55Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。