論文の概要: Communication-Efficient Laplace Mechanism for Differential Privacy via Random Quantization
- arxiv url: http://arxiv.org/abs/2309.06982v1
- Date: Wed, 13 Sep 2023 14:17:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 04:50:57.990704
- Title: Communication-Efficient Laplace Mechanism for Differential Privacy via Random Quantization
- Title(参考訳): ランダム量子化による差分プライバシーのための通信効率の良いラプラス機構
- Authors: Ali Moradi Shahmiri, Chih Wei Ling, Cheuk Ting Li,
- Abstract要約: 本稿では,Laplaceのメカニズムを正確に実現した最初の手法を提案する(すなわち,データにLaplaceノイズを加える)。
当社のメカニズムは、ローカルまたは集中型ディファレンシャルプライバシアプリケーションのドロップイン代替として機能する。
- 参考スコア(独自算出の注目度): 24.98836880652668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose the first method that realizes the Laplace mechanism exactly (i.e., a Laplace noise is added to the data) that requires only a finite amount of communication (whereas the original Laplace mechanism requires the transmission of a real number) while guaranteeing privacy against the server and database. Our mechanism can serve as a drop-in replacement for local or centralized differential privacy applications where the Laplace mechanism is used. Our mechanism is constructed using a random quantization technique. Unlike the simple and prevalent Laplace-mechanism-then-quantize approach, the quantization in our mechanism does not result in any distortion or degradation of utility. Unlike existing dithered quantization and channel simulation schemes for simulating additive Laplacian noise, our mechanism guarantees privacy not only against the database and downstream, but also against the honest but curious server which attempts to decode the data using the dither signals.
- Abstract(参考訳): サーバやデータベースに対するプライバシを確保しつつ,限られた通信量しか必要としないLaplace機構を正確に実現した最初の方法(Laplaceノイズをデータに追加する)を提案する。
当社のメカニズムは,Laplace機構を使用するローカルあるいは集中型ディファレンシャルプライバシアプリケーションに対して,ドロップインで置き換えることが可能です。
本機構はランダム量子化法を用いて構築する。
単純で一般的なLaplace-mechanism-then-quantizeアプローチとは異なり、我々のメカニズムの量子化は有用性の歪みや劣化をもたらすことはない。
付加的なラプラシアンノイズをシミュレートする既存のディザ量子化やチャネルシミュレーションと異なり、我々のメカニズムはデータベースや下流だけでなく、ディザ信号を使ってデータを復号しようとする正直だが好奇心のあるサーバに対してもプライバシーを保証する。
関連論文リスト
- DMM: Distributed Matrix Mechanism for Differentially-Private Federated Learning using Packed Secret Sharing [51.336015600778396]
フェデレーテッド・ラーニング(FL)は最近、産業とアカデミックの両方で多くの注目を集めています。
FLでは、機械学習モデルは、複数のラウンドにまたがって委員会に配置されたさまざまなエンドユーザのデータを使用して訓練される。
このようなデータは、しばしばセンシティブであるため、FLの主な課題は、モデルの実用性を維持しながらプライバシを提供することである。
論文 参考訳(メタデータ) (2024-10-21T16:25:14Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - The Symmetric alpha-Stable Privacy Mechanism [0.0]
本稿では,Symmetric alpha-Stable (SaS) 機構の新しい解析法を提案する。
この機構は、畳み込みの下で閉じたまま、純粋に微分プライベートであることを示す。
論文 参考訳(メタデータ) (2023-11-29T16:34:39Z) - Truncated Laplace and Gaussian mechanisms of RDP [28.227024132603123]
ラプラス機構とガウス機構は、微分プライバシーの主要なメカニズムである。
無限範囲の確率変数によって、ラプラスとガウスのメカニズムは、負数のような意味的に不可能な値を返すことができる。
論文 参考訳(メタデータ) (2023-09-22T06:37:45Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - Summary Statistic Privacy in Data Sharing [23.50797952699759]
本研究では,データ配信の要約統計を明らかにすることなく,データ保持者が受信者とデータを共有したい状況について検討する。
このようなメカニズムのプライバシーリスクを定量化するための指標である統計プライバシーの要約を提案する。
提案した量子化メカニズムは、代替プライバシメカニズムよりも優れたプライバシー歪曲トレードオフを実現する。
論文 参考訳(メタデータ) (2023-03-03T15:29:19Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Introducing the Huber mechanism for differentially private low-rank
matrix completion [9.944551494217075]
差分プライバシーを維持するための新しいノイズ付加機構を提案する。
提案するHuberメカニズムは,既存の差分プライバシーメカニズムに対して評価される。
提案機構は,Laplace機構と同様のエプシロン差分プライバシーを実現する。
論文 参考訳(メタデータ) (2022-06-16T04:33:06Z) - Additive Logistic Mechanism for Privacy-Preserving Self-Supervised
Learning [26.783944764936994]
ニューラルネットワークの重みを自己教師付き学習アルゴリズムでトレーニングする際のプライバシーリスクについて検討する。
我々は、微調整後の重み付けにノイズを加えるプライバシー保護アルゴリズムを設計する。
提案した保護アルゴリズムは,攻撃精度をランダムな推測にほぼ等しい50%に効果的に低減できることを示す。
論文 参考訳(メタデータ) (2022-05-25T01:33:52Z) - Noisy Quantum Kernel Machines [58.09028887465797]
量子学習マシンの新たなクラスは、量子カーネルのパラダイムに基づくものである。
消散と脱コヒーレンスがパフォーマンスに与える影響について検討する。
量子カーネルマシンでは,デコヒーレンスや散逸を暗黙の正規化とみなすことができる。
論文 参考訳(メタデータ) (2022-04-26T09:52:02Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。