論文の概要: Efficient Verifiable Differential Privacy with Input Authenticity in the Local and Shuffle Model
- arxiv url: http://arxiv.org/abs/2406.18940v2
- Date: Tue, 19 Nov 2024 08:04:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:32:39.221861
- Title: Efficient Verifiable Differential Privacy with Input Authenticity in the Local and Shuffle Model
- Title(参考訳): 局所およびシャッフルモデルにおける入力正当性を考慮した効率よく検証可能な微分プライバシー
- Authors: Tariq Bontekoe, Hassan Jameel Asghar, Fatih Turkmen,
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は、中央サーバ(アグリゲータ)を信頼することなく、アグリゲーション統計の効率的なリリースを可能にする。
LDPは、入力と出力の両方を操作できる悪意のあるクライアントに対して脆弱であることが示されている。
悪意あるクライアントが LDP スキームを妥協するのを防ぐ方法を示す。
- 参考スコア(独自算出の注目度): 3.208888890455612
- License:
- Abstract: Local differential privacy (LDP) enables the efficient release of aggregate statistics without having to trust the central server (aggregator), as in the central model of differential privacy, and simultaneously protects a client's sensitive data. The shuffle model with LDP provides an additional layer of privacy, by disconnecting the link between clients and the aggregator. However, LDP has been shown to be vulnerable to malicious clients who can perform both input and output manipulation attacks, i.e., before and after applying the LDP mechanism, to skew the aggregator's results. In this work, we show how to prevent malicious clients from compromising LDP schemes. Our only realistic assumption is that the initial raw input is authenticated; the rest of the processing pipeline, e.g., formatting the input and applying the LDP mechanism, may be under adversarial control. We give several real-world examples where this assumption is justified. Our proposed schemes for verifiable LDP (VLDP), prevent both input and output manipulation attacks against generic LDP mechanisms, requiring only one-time interaction between client and server, unlike existing alternatives [37, 43]. Most importantly, we are the first to provide an efficient scheme for VLDP in the shuffle model. We describe, and prove security of, two schemes for VLDP in the local model, and one in the shuffle model. We show that all schemes are highly practical, with client run times of less than 2 seconds, and server run times of 5-7 milliseconds per client.
- Abstract(参考訳): ローカルディファレンシャルプライバシ(LDP)は、中央サーバ(アグリゲータ)を信頼することなく、アグリゲーション統計の効率的なリリースを可能にし、クライアントのセンシティブなデータを同時に保護する。
LDPによるシャッフルモデルは、クライアントとアグリゲータの間のリンクを切断することで、さらなるプライバシーレイヤを提供する。
しかし、LPPは入力操作と出力操作の両方を実行できる悪意のあるクライアントに対して脆弱であることが示されている。
本研究では,悪意あるクライアントが LDP スキームを損なうのを防ぐ方法について述べる。
我々の唯一の現実的な仮定は、最初の生の入力が認証され、残りの処理パイプライン、例えば、入力をフォーマットし、LPPメカニズムを適用することは、敵の制御下にあるかもしれないということです。
この仮定を正当化する実例をいくつか挙げる。
提案手法は,クライアントとサーバ間のワンタイムインタラクションのみを必要とする汎用LDP機構に対して,入力と出力の両方が攻撃されるのを防ぐ。
最も重要なことは、私たちはシャッフルモデルでVLDPの効率的なスキームを最初に提供したことです。
ローカルモデルではVLDPの2つのスキーム,シャッフルモデルでは1つのスキームを記述し,その安全性を実証する。
クライアントの実行時間は2秒未満で、サーバの実行時間は1クライアントあたり5~7ミリ秒である。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Camel: Communication-Efficient and Maliciously Secure Federated Learning in the Shuffle Model of Differential Privacy [9.100955087185811]
フェデレートラーニング(FL)は、複数のクライアントが集約のための勾配更新のみを共有することで、モデルを共同でトレーニングすることを可能にする、急速に魅力的なパラダイムになっています。
プライバシーに敏感なグラデーションアップデートを保護するため、ローカルな差分プライバシーメカニズムの研究が続けられている。
我々は,DP のシャッフルモデルにおいて,コミュニケーション効率が高く,かつ悪意のある FL フレームワークである Camel を提示する。
論文 参考訳(メタデータ) (2024-10-04T13:13:44Z) - Correlated Privacy Mechanisms for Differentially Private Distributed Mean Estimation [8.660393575612169]
CorDP-DMEは、ローカルディファレンシャルプライバシ(LDP)と分散DP(SecAgg)のギャップにまたがる新しいDP-DMEである。
我々はCorDP-DMEの情報理論解析を行い、任意のプライバシパラメータの下での実用性に関する理論的保証を導出する。
論文 参考訳(メタデータ) (2024-07-03T17:22:33Z) - Noise-Aware Algorithm for Heterogeneous Differentially Private Federated Learning [21.27813247914949]
本稿では,クライアントモデル更新における真のノイズレベルを効率的に推定するRobust-HDPを提案する。
ユーティリティと収束速度を改善し、不正なプライバシパラメータをサーバに送信する可能性のあるクライアントに対して安全である。
論文 参考訳(メタデータ) (2024-06-05T17:41:42Z) - DP-BREM: Differentially-Private and Byzantine-Robust Federated Learning with Client Momentum [11.68347496182345]
フェデレートラーニング(FL)は、複数の参加するクライアントが機械学習モデルを協調的にトレーニングすることを可能にする。
既存のFLプロトコルは、データのプライバシやモデルの堅牢性を損なうような攻撃に対して脆弱である。
我々は,クロスサイロFLにおける差分プライバシ(DP)とビザンチンの堅牢性を同時に達成することに注力する。
論文 参考訳(メタデータ) (2023-06-22T00:11:53Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Lossless Compression of Efficient Private Local Randomizers [55.657133416044104]
Locally Differentially Private (LDP) Reportsは、フェデレーション設定における統計と機械学習の収集に一般的に使用されます。
多くの場合、最もよく知られたldpアルゴリズムは、クライアントデバイスからサーバに強制的に大きなメッセージを送信する必要がある。
これにより、LDPアルゴリズムの通信コストの削減に大きく貢献しています。
論文 参考訳(メタデータ) (2021-02-24T07:04:30Z) - Towards Differentially Private Text Representations [52.64048365919954]
信頼できないサーバ環境下で新しいディープラーニングフレームワークを開発する。
乱数化モジュールに対して、プライバシーパラメータ$epsilon$の精度への影響を低減するために、新しいローカル微分プライベート(LDP)プロトコルを提案する。
分析と実験により、我々のフレームワークは、非プライベートなフレームワークや既存のLDPプロトコルと同等またはそれ以上のパフォーマンスを提供することが示された。
論文 参考訳(メタデータ) (2020-06-25T04:42:18Z) - LDP-Fed: Federated Learning with Local Differential Privacy [14.723892247530234]
ローカルディファレンシャルプライバシ(LDP)を用いた正式なプライバシ保証を備えた新しいフェデレーション学習システム LDP-Fed を提案する。
既存のLPPプロトコルは、主に単一の数値またはカテゴリ値の収集におけるデータのプライバシを確保するために開発されている。
連合学習モデルでは、各参加者からパラメータの更新を反復的に収集する。
論文 参考訳(メタデータ) (2020-06-05T19:15:13Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。