論文の概要: Efficient Verifiable Differential Privacy with Input Authenticity in the Local and Shuffle Model
- arxiv url: http://arxiv.org/abs/2406.18940v2
- Date: Tue, 19 Nov 2024 08:04:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:32:39.221861
- Title: Efficient Verifiable Differential Privacy with Input Authenticity in the Local and Shuffle Model
- Title(参考訳): 局所およびシャッフルモデルにおける入力正当性を考慮した効率よく検証可能な微分プライバシー
- Authors: Tariq Bontekoe, Hassan Jameel Asghar, Fatih Turkmen,
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は、中央サーバ(アグリゲータ)を信頼することなく、アグリゲーション統計の効率的なリリースを可能にする。
LDPは、入力と出力の両方を操作できる悪意のあるクライアントに対して脆弱であることが示されている。
悪意あるクライアントが LDP スキームを妥協するのを防ぐ方法を示す。
- 参考スコア(独自算出の注目度): 3.208888890455612
- License:
- Abstract: Local differential privacy (LDP) enables the efficient release of aggregate statistics without having to trust the central server (aggregator), as in the central model of differential privacy, and simultaneously protects a client's sensitive data. The shuffle model with LDP provides an additional layer of privacy, by disconnecting the link between clients and the aggregator. However, LDP has been shown to be vulnerable to malicious clients who can perform both input and output manipulation attacks, i.e., before and after applying the LDP mechanism, to skew the aggregator's results. In this work, we show how to prevent malicious clients from compromising LDP schemes. Our only realistic assumption is that the initial raw input is authenticated; the rest of the processing pipeline, e.g., formatting the input and applying the LDP mechanism, may be under adversarial control. We give several real-world examples where this assumption is justified. Our proposed schemes for verifiable LDP (VLDP), prevent both input and output manipulation attacks against generic LDP mechanisms, requiring only one-time interaction between client and server, unlike existing alternatives [37, 43]. Most importantly, we are the first to provide an efficient scheme for VLDP in the shuffle model. We describe, and prove security of, two schemes for VLDP in the local model, and one in the shuffle model. We show that all schemes are highly practical, with client run times of less than 2 seconds, and server run times of 5-7 milliseconds per client.
- Abstract(参考訳): ローカルディファレンシャルプライバシ(LDP)は、中央サーバ(アグリゲータ)を信頼することなく、アグリゲーション統計の効率的なリリースを可能にし、クライアントのセンシティブなデータを同時に保護する。
LDPによるシャッフルモデルは、クライアントとアグリゲータの間のリンクを切断することで、さらなるプライバシーレイヤを提供する。
しかし、LPPは入力操作と出力操作の両方を実行できる悪意のあるクライアントに対して脆弱であることが示されている。
本研究では,悪意あるクライアントが LDP スキームを損なうのを防ぐ方法について述べる。
我々の唯一の現実的な仮定は、最初の生の入力が認証され、残りの処理パイプライン、例えば、入力をフォーマットし、LPPメカニズムを適用することは、敵の制御下にあるかもしれないということです。
この仮定を正当化する実例をいくつか挙げる。
提案手法は,クライアントとサーバ間のワンタイムインタラクションのみを必要とする汎用LDP機構に対して,入力と出力の両方が攻撃されるのを防ぐ。
最も重要なことは、私たちはシャッフルモデルでVLDPの効率的なスキームを最初に提供したことです。
ローカルモデルではVLDPの2つのスキーム,シャッフルモデルでは1つのスキームを記述し,その安全性を実証する。
クライアントの実行時間は2秒未満で、サーバの実行時間は1クライアントあたり5~7ミリ秒である。
関連論文リスト
- SafeSplit: A Novel Defense Against Client-Side Backdoor Attacks in Split Learning [53.16528046390881]
Split Learning(SL)は、複数のクライアントとサーバが共同で学習し、共有ディープラーニング(DNN)上で推論できる分散ディープラーニングアプローチである。
本稿では,split Learning(SL)におけるクライアント側のバックドア攻撃に対する最初の防御であるSafeSplitについて述べる。
クライアントが引き起こした変更を特定し、有毒なモデルを検出するために、2倍の分析を使用する。
論文 参考訳(メタデータ) (2025-01-11T22:20:20Z) - Lightweight Federated Learning with Differential Privacy and Straggler Resilience [19.94124499453864]
フェデレートラーニング(FL)は、生データの代わりにモデルパラメータ交換を通じて協調的なモデルトレーニングを可能にする。
パラメータ交換による潜在的な推論攻撃を避けるため、差分プライバシー(DP)は様々な攻撃に対して厳格な保証を提供する。
提案するLightDP-FLは,信頼できないピアやサーバに対して,証明可能なDPを保証する,新しい軽量なスキームである。
論文 参考訳(メタデータ) (2024-12-09T00:54:00Z) - DMM: Distributed Matrix Mechanism for Differentially-Private Federated Learning using Packed Secret Sharing [51.336015600778396]
フェデレーテッド・ラーニング(FL)は最近、産業とアカデミックの両方で多くの注目を集めています。
FLでは、機械学習モデルは、複数のラウンドにまたがって委員会に配置されたさまざまなエンドユーザのデータを使用して訓練される。
このようなデータは、しばしばセンシティブであるため、FLの主な課題は、モデルの実用性を維持しながらプライバシを提供することである。
論文 参考訳(メタデータ) (2024-10-21T16:25:14Z) - Camel: Communication-Efficient and Maliciously Secure Federated Learning in the Shuffle Model of Differential Privacy [9.100955087185811]
フェデレートラーニング(FL)は、複数のクライアントが集約のための勾配更新のみを共有することで、モデルを共同でトレーニングすることを可能にする、急速に魅力的なパラダイムになっています。
プライバシーに敏感なグラデーションアップデートを保護するため、ローカルな差分プライバシーメカニズムの研究が続けられている。
我々は,DP のシャッフルモデルにおいて,コミュニケーション効率が高く,かつ悪意のある FL フレームワークである Camel を提示する。
論文 参考訳(メタデータ) (2024-10-04T13:13:44Z) - DP-DyLoRA: Fine-Tuning Transformer-Based Models On-Device under Differentially Private Federated Learning using Dynamic Low-Rank Adaptation [15.023077875990614]
フェデレートラーニング(FL)は、クライアントがローカルデータをサーバと共有することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
差分プライバシ(DP)は、クライアントのコントリビューションにランダム性を加えるメカニズムを備えた、正式なプライバシ保証を提供することによって、そのようなリークに対処する。
差分プライバシーと組み合わせてDP-DyLoRAと呼ぶ適応手法を提案する。
論文 参考訳(メタデータ) (2024-05-10T10:10:37Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Lossless Compression of Efficient Private Local Randomizers [55.657133416044104]
Locally Differentially Private (LDP) Reportsは、フェデレーション設定における統計と機械学習の収集に一般的に使用されます。
多くの場合、最もよく知られたldpアルゴリズムは、クライアントデバイスからサーバに強制的に大きなメッセージを送信する必要がある。
これにより、LDPアルゴリズムの通信コストの削減に大きく貢献しています。
論文 参考訳(メタデータ) (2021-02-24T07:04:30Z) - PRICURE: Privacy-Preserving Collaborative Inference in a Multi-Party
Setting [3.822543555265593]
本稿では,セキュアなマルチパーティ計算とディファレンシャルプライバシの補完的強みを組み合わせたシステムpricureを提案する。
PRICUREは、複数のモデルオーナー間のプライバシー保護共同予測を可能にします。
ベンチマーク医療画像分類データセットを含む4つのデータセットのニューラルネットワーク上でPRICUREを評価する。
論文 参考訳(メタデータ) (2021-02-19T05:55:53Z) - Towards Differentially Private Text Representations [52.64048365919954]
信頼できないサーバ環境下で新しいディープラーニングフレームワークを開発する。
乱数化モジュールに対して、プライバシーパラメータ$epsilon$の精度への影響を低減するために、新しいローカル微分プライベート(LDP)プロトコルを提案する。
分析と実験により、我々のフレームワークは、非プライベートなフレームワークや既存のLDPプロトコルと同等またはそれ以上のパフォーマンスを提供することが示された。
論文 参考訳(メタデータ) (2020-06-25T04:42:18Z) - LDP-Fed: Federated Learning with Local Differential Privacy [14.723892247530234]
ローカルディファレンシャルプライバシ(LDP)を用いた正式なプライバシ保証を備えた新しいフェデレーション学習システム LDP-Fed を提案する。
既存のLPPプロトコルは、主に単一の数値またはカテゴリ値の収集におけるデータのプライバシを確保するために開発されている。
連合学習モデルでは、各参加者からパラメータの更新を反復的に収集する。
論文 参考訳(メタデータ) (2020-06-05T19:15:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。