論文の概要: RAIN: Secure and Robust Aggregation under Shuffle Model of Differential Privacy
- arxiv url: http://arxiv.org/abs/2603.03108v1
- Date: Tue, 03 Mar 2026 15:41:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.865607
- Title: RAIN: Secure and Robust Aggregation under Shuffle Model of Differential Privacy
- Title(参考訳): RAIN: 差別的プライバシのシャッフルモデルの下でのセキュアでロバストな集約
- Authors: Yuhang Li, Yajie Wang, Xiangyun Tang, Peng Jiang, Yu-an Tan, Liehuang Zhu,
- Abstract要約: 本稿では,Shuffle-DPの下でのプライバシー,堅牢性,検証性を両立するフレームワークである騒音のロバスト集約について述べる。
RAINは、アップデートの一貫性を堅牢に測定し、ノイズや匿名化の下で悪意のある影響を制限するために、サインスペースアグリゲーションを採用している。
本研究は,Shuffle-DPの下では強力なプライバシー保証を保ち,精度と収束性において無視できない劣化を伴う攻撃に対して堅牢であることを示す。
- 参考スコア(独自算出の注目度): 46.52109845749167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Secure aggregation is a foundational building block of privacy-preserving learning, yet achieving robustness under adversarial behavior remains challenging. Modern systems increasingly adopt the shuffle model of differential privacy (Shuffle-DP) to locally perturb client updates and globally anonymize them via shuffling for enhanced privacy protection. However, these perturbations and anonymization distort gradient geometry and remove identity linkage, leaving systems vulnerable to adversarial poisoning attacks. Moreover, the shuffler, typically a third party, can be compromised, undermining security against malicious adversaries. To address these challenges, we present Robust Aggregation in Noise (RAIN), a unified framework that reconciles privacy, robustness, and verifiability under Shuffle-DP. At its core, RAIN adopts sign-space aggregation to robustly measure update consistency and limit malicious influence under noise and anonymization. Specifically, we design two novel secret-shared protocols for shuffling and aggregation that operate directly on additive shares and preserve Shuffle-DP's tight privacy guarantee. In each round, the aggregated result is verified to ensure correct aggregation and detect any selective dropping, achieving malicious security with minimal overhead. Extensive experiments across comprehensive benchmarks show that RAIN maintains strong privacy guarantees under Shuffle-DP and remains robust to poisoning attacks with negligible degradation in accuracy and convergence. It further provides real-time integrity verification with complete tampering detection, while achieving up to 90x lower communication cost and 10x faster aggregation compared with prior work.
- Abstract(参考訳): セキュアアグリゲーションはプライバシ保護学習の基礎的な構成要素であるが、敵の行動下で堅牢性を達成することは依然として困難である。
現代のシステムでは、クライアントのローカルな更新を妨害し、シャッフルを通じてグローバルに匿名化することで、プライバシー保護を強化するために、ディファレンシャルプライバシのシャッフルモデル(シャッフルDP)を採用するようになっている。
しかし、これらの摂動と匿名化は勾配幾何学を歪め、アイデンティティ結合を取り除き、敵の毒殺攻撃に脆弱なシステムを残した。
さらに、通常第三者であるシャフラーは妥協され、悪意のある敵に対するセキュリティを損なう。
これらの課題に対処するため,Shuffle-DPの下でのプライバシー,堅牢性,検証性を両立する統一フレームワークであるRobust Aggregation in Noise (RAIN)を提案する。
その中核にあるのが、更新一貫性を堅牢に測定し、ノイズや匿名化の下で悪意のある影響を制限する、サインスペースアグリゲーションである。
具体的には、シャッフルとアグリゲーションのための2つの新しい秘密共有プロトコルを設計し、Shuffle-DPの厳密なプライバシー保証を維持します。
各ラウンドにおいて、集計結果を検証し、正しい集計を確実にし、選択的なドロップを検出し、最小限のオーバーヘッドで悪意のあるセキュリティを達成する。
包括的なベンチマークによる大規模な実験は、RAINがShuffle-DPの下で強力なプライバシ保証を維持しており、正確性と収束性の無視可能な低下による攻撃に対して堅牢であることを示している。
さらに、完全な改ざん検出を伴うリアルタイムの整合性検証も提供し、通信コストの最大90倍、前処理の10倍の高速化を実現している。
関連論文リスト
- Coding-Enforced Resilient and Secure Aggregation for Hierarchical Federated Learning [30.254515308020512]
階層的連合学習(HFL)は、クライアントとサーバ間のリンク品質を高める効果的なパラダイムとして登場した。
本稿では,構造化アグリゲーションを強制するための符号化戦略を統合するH-SecCoGCという,堅牢な階層型セキュアアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2026-01-25T21:07:22Z) - Your Privacy Depends on Others: Collusion Vulnerabilities in Individual Differential Privacy [50.66105844449181]
個々の差別的プライバシ(iDP)は、ユーザが自身のプライバシをコントロールすることを約束するが、この約束は実際には破られる可能性がある。
我々は、サンプリングベースのiDPメカニズムにおいて、これまで見過ごされていた脆弱性を明らかにした。
我々は、$(varepsilon_i,_i,overline)$-iDPというプライバシー契約を提案します。
論文 参考訳(メタデータ) (2026-01-19T10:26:12Z) - Efficient Full-Stack Private Federated Deep Learning with Post-Quantum Security [17.45950557331482]
フェデレートラーニング(FL)は、データをローカルに保つことによって、ユーザのデータプライバシを保護しながら、協調的なモデルトレーニングを可能にする。
このようなアドバンテージにもかかわらず、FLはトレーニングやデプロイメント中のユーザの更新やモデルパラメータに対するプライバシ攻撃に弱いままである。
私たちは、ポストクォータムセキュアアグリゲーションを提供する新しいフレームワークであるBeskarを紹介します。
論文 参考訳(メタデータ) (2025-05-09T03:20:48Z) - Camel: Communication-Efficient and Maliciously Secure Federated Learning in the Shuffle Model of Differential Privacy [9.100955087185811]
フェデレートラーニング(FL)は、複数のクライアントが集約のための勾配更新のみを共有することで、モデルを共同でトレーニングすることを可能にする、急速に魅力的なパラダイムになっています。
プライバシーに敏感なグラデーションアップデートを保護するため、ローカルな差分プライバシーメカニズムの研究が続けられている。
我々は,DP のシャッフルモデルにおいて,コミュニケーション効率が高く,かつ悪意のある FL フレームワークである Camel を提示する。
論文 参考訳(メタデータ) (2024-10-04T13:13:44Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Enabling Privacy-preserving Model Evaluation in Federated Learning via Fully Homomorphic Encryption [1.9662978733004604]
センシティブなデータを集中化せずにモデルを協調的にトレーニングする能力によって、フェデレートラーニングが急速に普及している。
評価フェーズでは、文献で適切に対処されていない重要なプライバシーリスクが提示される。
完全同型暗号を利用した新しい評価手法を提案する。
論文 参考訳(メタデータ) (2024-03-21T14:36:55Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Network Shuffling: Privacy Amplification via Random Walks [21.685747588753514]
ネットワーク/グラフ上でランダムウォーク方式でデータを交換する分散メカニズムであるネットワークシャッフルを導入する。
プライバシーの増幅率は、均一シャッフルのような他のプライバシーの増幅手法と類似していることが示される。
論文 参考訳(メタデータ) (2022-04-08T08:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。