論文の概要: Chu-ko-nu: A Reliable, Efficient, and Anonymously Authentication-Enabled
Realization for Multi-Round Secure Aggregation in Federated Learning
- arxiv url: http://arxiv.org/abs/2402.15111v1
- Date: Fri, 23 Feb 2024 05:50:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 15:42:44.494417
- Title: Chu-ko-nu: A Reliable, Efficient, and Anonymously Authentication-Enabled
Realization for Multi-Round Secure Aggregation in Federated Learning
- Title(参考訳): chu-ko-nu : フェデレーション学習におけるマルチラウンドセキュアアグリゲーションのための信頼性,効率的,匿名認証対応の実現
- Authors: Kaiping Cui, Xia Feng, Liangmin Wang, Haiqin Wu, Xiaoyu Zhang and
Boris D\"udder
- Abstract要約: セキュアなアグリゲーションのための,より信頼性が高く,匿名で認証する方式であるChu-ko-nuを提案する。
中古ぬは秘密鍵成分の再分配過程を補うことで確率P障壁を破る。
FLトレーニングに参加するクライアントを匿名でサポートし、攻撃の有無でクライアントを効果的に認証することができる。
- 参考スコア(独自算出の注目度): 13.291673705084978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Secure aggregation enables federated learning (FL) to perform collaborative
training of clients from local gradient updates without exposing raw data.
However, existing secure aggregation schemes inevitably perform an expensive
fresh setup per round because each client needs to establish fresh
input-independent secrets over different rounds. The latest research, Flamingo
(S&P 2023), designed a share-transfer-based reusable secret key to support the
server continuously performing multiple rounds of aggregation. Nevertheless,
the share transfer mechanism it proposed can only be achieved with P
probability, which has limited reliability. To tackle the aforementioned
problems, we propose a more reliable and anonymously authenticated scheme
called Chu-ko-nu for multi-round secure aggregation. Specifically, in terms of
share transfer, Chu-ko-nu breaks the probability P barrier by supplementing a
redistribution process of secret key components (the sum of all components is
the secret key), thus ensuring the reusability of the secret key. Based on this
reusable secret key, Chu-ko-nu can efficiently perform consecutive aggregation
in the following rounds. Furthermore, considering the client identity
authentication and privacy protection issue most approaches ignore, Chu-ko-nu
introduces a zero-knowledge proof-based authentication mechanism. It can
support clients anonymously participating in FL training and enables the server
to authenticate clients effectively in the presence of various attacks.
Rigorous security proofs and extensive experiments demonstrated that Chu-ko-nu
can provide reliable and anonymously authenticated aggregation for FL with low
aggregation costs, at least a 21.02% reduction compared to the state-of-the-art
schemes.
- Abstract(参考訳): セキュアアグリゲーションにより、フェデレーション学習(fl)は、生データを露呈することなく、ローカル勾配更新からクライアントの協調トレーニングを実行することができる。
しかし、既存のセキュアアグリゲーションスキームは、各クライアントが異なるラウンドに対して新しいインプット非依存のシークレットを確立する必要があるため、必然的に1ラウンドあたりの高価なフレッシュセットアップを実行する。
最新の研究であるFlamingo (S&P 2023)は、複数のアグリゲーションを継続的に実行するサーバをサポートするために、共有転送ベースの再利用可能なシークレットキーを設計した。
それでも、提案した共有転送機構は、信頼性に限界があるP確率でしか達成できない。
上記の問題に対処するため,複数ラウンドのセキュアアグリゲーションのための,より信頼性の高い匿名認証方式であるchu-ko-nuを提案する。
具体的には、共有転送の面では、秘密鍵成分の再分配過程(すべての成分の和が秘密鍵である)を補足することにより、確率P障壁を破り、秘密鍵の再利用性を確保する。
この再利用可能な秘密鍵に基づき、チュコヌは以下のラウンドで効率的に連続集計を行うことができる。
さらに,クライアント認証とプライバシ保護の問題がほとんど無視されていることから,Chu-ko-nuはゼロ知識証明に基づく認証機構を導入している。
FLトレーニングに参加するクライアントを匿名でサポートし、さまざまな攻撃がある場合、サーバがクライアントを効果的に認証することができる。
厳密なセキュリティ証明と広範囲な実験により、中古ぬは低い集約コストでFLに対して信頼性と匿名で認証されたアグリゲーションを提供できることを示した。
関連論文リスト
- Fluent: Round-efficient Secure Aggregation for Private Federated
Learning [23.899922716694427]
フェデレートラーニング(FL)は、多数のクライアント間で機械学習モデルの協調トレーニングを促進する。
FLは、プライバシ推論や逆攻撃といった脆弱性の影響を受け続けている。
本研究は,プライベートFLのためのラウンドおよび通信効率の高いセキュアアグリゲーション方式であるFluentを導入する。
論文 参考訳(メタデータ) (2024-03-10T09:11:57Z) - Balancing Privacy and Security in Federated Learning with FedGT: A Group
Testing Framework [90.61139449550383]
FedGTは、フェデレート学習における悪意のあるクライアントを安全なアグリゲーションで識別するためのフレームワークである。
FedGTは、誤検知や誤報の確率が低い悪意のあるクライアントを識別できることを示す。
論文 参考訳(メタデータ) (2023-05-09T14:54:59Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - ScionFL: Efficient and Robust Secure Quantized Aggregation [44.69902593901196]
我々は,フェデレートラーニングのための最初のセキュアアグリゲーションフレームワークであるScionFLを紹介する。
量子化された入力で効率的に動作し、同時に悪意のあるクライアントに対して堅牢性を提供する。
クライアントのオーバーヘッドがなく、サーバ側のオーバーヘッドも緩やかなため、標準的なFLベンチマークでは同等の精度が得られます。
論文 参考訳(メタデータ) (2022-10-13T21:46:55Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - MUDGUARD: Taming Malicious Majorities in Federated Learning using
Privacy-Preserving Byzantine-Robust Clustering [34.429892915267686]
Byzantine-robust Federated Learning (FL)は、悪意のあるクライアントに対抗し、攻撃の成功率を極端に低く保ちながら、正確なグローバルモデルをトレーニングすることを目的としている。
しかし、既存のシステムのほとんどは、クライアントが正直な場合にのみ堅牢である。
本稿では,サーバ側とクライアント側の両方で悪意あるマイノリティの求職者多数で運用可能な,ビザンチン・ロバスト・プライバシ保護型FLシステム MUDGUARD を提案する。
論文 参考訳(メタデータ) (2022-08-22T09:17:58Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Sharing classical secrets with continuous-variable entanglement:
Composable security and network coding advantage [0.913755431537592]
量子通信のためのポイント・ツー・ポイントプロトコルに対して,マルチパーティ・エンタングルド・リソースが真に有利であることを示す。
これは、量子通信のためのポイント・ツー・ポイントプロトコルよりも真に有利な、マルチパーティ・エンタングルド・リソースの最初の具体的な例である。
論文 参考訳(メタデータ) (2021-04-21T17:37:28Z) - FastSecAgg: Scalable Secure Aggregation for Privacy-Preserving Federated
Learning [18.237186837994585]
セキュアアグリゲーション'プロトコルは、サーバがクライアントのモデルをプライバシ保護方法で集約することを可能にする。
FastSecAggは計算と通信の面で効率的であり、クライアントのドロップアウトに対して堅牢である。
論文 参考訳(メタデータ) (2020-09-23T16:49:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。