論文の概要: Lotto: Secure Participant Selection against Adversarial Servers in Federated Learning
- arxiv url: http://arxiv.org/abs/2401.02880v2
- Date: Wed, 6 Mar 2024 07:49:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-17 17:10:47.109050
- Title: Lotto: Secure Participant Selection against Adversarial Servers in Federated Learning
- Title(参考訳): Lotto: フェデレーション学習における敵サーバに対するセキュアな参加者選択
- Authors: Zhifeng Jiang, Peng Ye, Shiqi He, Wei Wang, Ruichuan Chen, Bo Li,
- Abstract要約: フェデレートラーニング(FL)技術は、様々な攻撃に耐えるために参加者の正直な多数派を仮定することに依存する。
しかし、実際には、サーバは常に信頼されているわけではなく、敵サーバは、妥協したクライアントを戦略的に選択して、不正な多数派を作ることができる。
本稿では、この基本的な問題に対処するFLシステムであるLottoについて、敵サーバに対してセキュアなセレクション選択を提供することにより、未探索の課題に対処する。
- 参考スコア(独自算出の注目度): 10.837054387435844
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In Federated Learning (FL), common privacy-enhancing techniques, such as secure aggregation and distributed differential privacy, rely on the critical assumption of an honest majority among participants to withstand various attacks. In practice, however, servers are not always trusted, and an adversarial server can strategically select compromised clients to create a dishonest majority, thereby undermining the system's security guarantees. In this paper, we present Lotto, an FL system that addresses this fundamental, yet underexplored issue by providing secure participant selection against an adversarial server. Lotto supports two selection algorithms: random and informed. To ensure random selection without a trusted server, Lotto enables each client to autonomously determine their participation using verifiable randomness. For informed selection, which is more vulnerable to manipulation, Lotto approximates the algorithm by employing random selection within a refined client pool. Our theoretical analysis shows that Lotto effectively aligns the proportion of server-selected compromised participants with the base rate of dishonest clients in the population. Large-scale experiments further reveal that Lotto achieves time-to-accuracy performance comparable to that of insecure selection methods, indicating a low computational overhead for secure selection.
- Abstract(参考訳): フェデレートラーニング(FL)では、セキュアアグリゲーションや分散ディファレンシャルプライバシといった一般的なプライバシ向上技術が、さまざまな攻撃に耐えるために参加者の正直な多数派の批判的な仮定に依存している。
しかし、実際には、サーバは必ずしも信頼できないため、敵サーバは妥協したクライアントを戦略的に選択して不正な多数派を作ることができ、それによってシステムのセキュリティ保証を損なうことができる。
本稿では,この基本的な問題に対処するFLシステムである Lotto を提案する。
Lottoはランダムとインフォメーションという2つの選択アルゴリズムをサポートしている。
信頼されたサーバなしでランダムな選択を保証するため、Lottoは各クライアントが検証されたランダム性を使用して参加を自律的に決定できる。
操作に弱い情報選択に対して、Lottoは洗練されたクライアントプール内でランダム選択を用いることでアルゴリズムを近似する。
我々の理論的分析によると、ロットーは、サーバ選択された不正な参加者の割合と、人口における不正直な顧客の割合を効果的に一致させる。
大規模な実験により、ロットは安全でない選択法に匹敵する時間と精度の性能を達成し、安全な選択のための計算オーバーヘッドが低いことを示した。
関連論文リスト
- Enhancing Mutual Trustworthiness in Federated Learning for Data-Rich Smart Cities [29.951569327998133]
フェデレーション学習は、データリッチなスマートシティにおける、コラボレーションとプライバシ保護を約束する機械学習アプローチである。
ランダムなクライアント選択技術のような従来のアプローチは、システムの完全性にいくつかの脅威をもたらす。
本稿では,クライアントとサーバの双方の信頼ニーズを考慮して,フェデレート学習における相互信頼感に対処する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-01T08:49:22Z) - Blockchain-based Optimized Client Selection and Privacy Preserved
Framework for Federated Learning [2.4201849657206496]
フェデレートラーニング(Federated Learning)は、大規模ニューラルネットワークモデルをトレーニングする分散メカニズムで、複数のクライアントが参加する。
この機能により、フェデレーション学習はデータのプライバシー問題に対するセキュアなソリューションとみなされる。
ブロックチェーンベースの最適化クライアント選択とプライバシ保護フレームワークを提案しました。
論文 参考訳(メタデータ) (2023-07-25T01:35:51Z) - FedGT: Identification of Malicious Clients in Federated Learning with Secure Aggregation [69.75513501757628]
FedGTは、フェデレーション学習における悪意のあるクライアントを安全なアグリゲーションで識別するための新しいフレームワークである。
我々はPillutlaらによって最近提案された幾何的中央値に基づいて,FedGTがプライベートロバストアグリゲーションアプローチを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2023-05-09T14:54:59Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Blockchain-based Secure Client Selection in Federated Learning [18.001794899303626]
ブロックチェーン技術を使って、フェデレートラーニングのための検証可能なクライアント選択プロトコルを提案しています。
本プロトコルでは,クライアントのランダムな選択を強制し,サーバが選択プロセスの判断で制御できないようにする。
この攻撃に対して当社のプロトコルが安全であることを示すセキュリティ証明を提示する。
論文 参考訳(メタデータ) (2022-05-11T16:28:12Z) - Voting for the right answer: Adversarial defense for speaker
verification [79.10523688806852]
ASVは敵の攻撃のレーダー下にあり、これは人間の知覚による本来の攻撃と似ている。
盲点領域におけるASVのリスクの高い決定を防止するため、「正しい回答を求める」という考え方を提案する。
実験結果から,本手法は両攻撃者に対するロバスト性を向上することが示された。
論文 参考訳(メタデータ) (2021-06-15T04:05:28Z) - Securing Secure Aggregation: Mitigating Multi-Round Privacy Leakage in
Federated Learning [21.70169634677215]
セキュアなアグリゲーションフレームワークであるMulti-RoundSecAggを導入する。
特に,複数のトレーニングラウンドにおいてFLのプライバシー保証を定量化する新たな指標を提案する。
当社のフレームワークは,各ラウンドにおける参加者の公正度と平均数についても慎重に説明しています。
論文 参考訳(メタデータ) (2021-06-07T04:14:05Z) - Towards Bidirectional Protection in Federated Learning [70.36925233356335]
F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-02T19:37:02Z) - Presentation a Trust Walker for rating prediction in Recommender System
with Biased Random Walk: Effects of H-index Centrality, Similarity in Items
and Friends [3.8848561367220276]
トラストベースのレコメンデータシステムを用いて、ユーザの希望する項目のスコアを予測する。
信頼ネットワークでは、ノード間のエッジを重み付けすることにより、信頼度を決定し、TrustWalkerを開発する。
本手法の実装と評価は,Epinions,Flixster,FilmTrustという3つのデータセットを用いて行った。
論文 参考訳(メタデータ) (2020-09-10T12:52:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。