論文の概要: Armadillo: Robust Single-Server Secure Aggregation for Federated Learning with Input Validation
- arxiv url: http://arxiv.org/abs/2511.10863v1
- Date: Fri, 14 Nov 2025 00:16:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.372776
- Title: Armadillo: Robust Single-Server Secure Aggregation for Federated Learning with Input Validation
- Title(参考訳): Armadillo: 入力バリデーションによるフェデレーション学習のためのロバストなシングルサーバセキュアアグリゲーション
- Authors: Yiping Ma, Yue Guo, Harish Karthikeyan, Antigoni Polychroniadou,
- Abstract要約: Armadilloは、単一の強力なサーバが多くの弱いクライアントと反復的に対話し、クライアントのプライベートデータ上でモデルをトレーニングするフェデレートされた学習設定のために設計されている。
本稿では,悪意あるクライアントの連帯が,事前定義された正当範囲のプライベート入力を誤って報告することによってのみ,アグリゲーション結果に影響を及ぼすような,敵対的クライアントに対する破壊的な抵抗を有するセキュアアグリゲーションシステムを提案する。
- 参考スコア(独自算出の注目度): 12.332129175789072
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a secure aggregation system Armadillo that has disruptive resistance against adversarial clients, such that any coalition of malicious clients (within the tolerated threshold) can affect the aggregation result only by misreporting their private inputs in a pre-defined legitimate range. Armadillo is designed for federated learning setting, where a single powerful server interacts with many weak clients iteratively to train models on client's private data. While a few prior works consider disruption resistance under such setting, they either incur high per-client cost (Chowdhury et al. CCS '22) or require many rounds (Bell et al. USENIX Security '23). Although disruption resistance can be achieved generically with zero-knowledge proof techniques (which we also use in this paper), we realize an efficient system with two new designs: 1) a simple two-layer secure aggregation protocol that requires only simple arithmetic computation; 2) an agreement protocol that removes the effect of malicious clients from the aggregation with low round complexity. With these techniques, Armadillo completes each secure aggregation in 3 rounds while keeping the server and clients computationally lightweight.
- Abstract(参考訳): 本稿では、悪意のあるクライアントの連帯(許容しきい値)が、事前定義された正当範囲でプライベートな入力を誤レポートすることによってのみ、アグリゲーション結果に影響を及ぼすような、敵対的クライアントに対する破壊的な抵抗を有する安全なアグリゲーションシステムであるArmandilloを提案する。
Armadilloは、単一の強力なサーバが多くの弱いクライアントと反復的に対話し、クライアントのプライベートデータ上でモデルをトレーニングするフェデレートされた学習設定のために設計されている。
このような環境下での破壊抵抗についていくつかの先行研究が検討されているが、それらは高い1サイクル当たりのコスト(Chowdhury et al CCS '22)または多くのラウンド(Bell et al USENIX Security '23)を必要とする。
破壊抵抗はゼロ知識証明技術(この論文でも用いている)で汎用的に達成できるが、我々は2つの新しい設計を持つ効率的なシステムを実現する。
1) 単純な算術演算のみを必要とする単純な2層セキュアアグリゲーションプロトコル
2) 不正なクライアントの効果を、ラウンドの複雑さの低いアグリゲーションから排除する合意プロトコル。
これらのテクニックにより、Armandilloはサーバとクライアントを計算量的に軽量にしながら、3ラウンドで各セキュアアグリゲーションを完了します。
関連論文リスト
- ZORRO: Zero-Knowledge Robustness and Privacy for Split Learning (Full Version) [58.595691399741646]
Split Learning(SL)は、リソース制約のあるクライアントがディープニューラルネットワーク(DNN)を協調的にトレーニングすることを可能にする分散学習アプローチである。
このセットアップにより、SLはデータを共有せずにサーバの能力を活用することができ、機密データを扱うリソース制約のある環境で非常に効果的になる。
我々は、プライベートで検証可能な、堅牢なSL防御スキームであるZORROを提示する。
論文 参考訳(メタデータ) (2025-09-11T18:44:09Z) - Pigeon-SL: Robust Split Learning Framework for Edge Intelligence under Malicious Clients [53.496957000114875]
我々は,M クライアントのうち少なくとも 1 つの完全正直なクラスタを保証する新しいスキームである Pigeon-SL を紹介する。
各グローバルラウンドでは、アクセスポイントがクライアントをN+1クラスタに分割し、バニラSLを介して独立して各クラスタをトレーニングし、共有データセット上での検証損失を評価する。
損失が最も低いクラスタのみが進歩し、悪意のある更新を分離して破棄する。
論文 参考訳(メタデータ) (2025-08-04T09:34:50Z) - $\mathsf{OPA}$: One-shot Private Aggregation with Single Client Interaction and its Applications to Federated Learning [7.713377215066152]
一発のプライベートアグリゲーション(mathsfOPA$)を導入します。
各クライアントはアグリゲーション毎に1回だけ通信するので、ドロップアウトの管理と動的参加が簡単になる。
$mathsfOPA$は実用的で、最先端のソリューションよりも優れています。
論文 参考訳(メタデータ) (2024-10-29T17:50:11Z) - Robust and Actively Secure Serverless Collaborative Learning [48.01929996757643]
コラボレーティブ機械学習(ML)は、分散データからより良いモデルを学ぶために広く利用されている。
学習のための協調的なアプローチは、直感的にユーザデータを保護しますが、サーバ、クライアント、あるいはその両方に対して脆弱なままです。
本稿では、悪意のあるサーバに対してセキュアで、悪意のあるクライアントに対して堅牢なピアツーピア学習方式を提案する。
論文 参考訳(メタデータ) (2023-10-25T14:43:03Z) - ScionFL: Efficient and Robust Secure Quantized Aggregation [36.668162197302365]
我々は,フェデレートラーニングのための最初のセキュアアグリゲーションフレームワークであるScionFLを紹介する。
量子化された入力で効率的に動作し、同時に悪意のあるクライアントに対して堅牢性を提供する。
クライアントのオーバーヘッドがなく、サーバのオーバーヘッドも緩やかなため、標準的なFLベンチマークに匹敵する精度が得られます。
論文 参考訳(メタデータ) (2022-10-13T21:46:55Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - Towards Bidirectional Protection in Federated Learning [70.36925233356335]
F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-02T19:37:02Z) - FastSecAgg: Scalable Secure Aggregation for Privacy-Preserving Federated
Learning [18.237186837994585]
セキュアアグリゲーション'プロトコルは、サーバがクライアントのモデルをプライバシ保護方法で集約することを可能にする。
FastSecAggは計算と通信の面で効率的であり、クライアントのドロップアウトに対して堅牢である。
論文 参考訳(メタデータ) (2020-09-23T16:49:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。