論文の概要: FedReview: A Review Mechanism for Rejecting Poisoned Updates in
Federated Learning
- arxiv url: http://arxiv.org/abs/2402.16934v1
- Date: Mon, 26 Feb 2024 17:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 19:04:29.555243
- Title: FedReview: A Review Mechanism for Rejecting Poisoned Updates in
Federated Learning
- Title(参考訳): fedreview: フェデレーション学習における有毒な更新を拒否するレビューメカニズム
- Authors: Tianhang Zheng and Baochun Li
- Abstract要約: フェデレートラーニング(Federated Learning)は、ユーザデータにアクセスせずに高性能モデルを学ぶための分散アプローチとして最近登場した。
我々は,フェデレーション学習における有毒な更新の可能性を特定するためのFedReviewと呼ばれるレビューメカニズムを提案する。
- 参考スコア(独自算出の注目度): 42.34575252618648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning has recently emerged as a decentralized approach to learn
a high-performance model without access to user data. Despite its
effectiveness, federated learning gives malicious users opportunities to
manipulate the model by uploading poisoned model updates to the server. In this
paper, we propose a review mechanism called FedReview to identify and decline
the potential poisoned updates in federated learning. Under our mechanism, the
server randomly assigns a subset of clients as reviewers to evaluate the model
updates on their training datasets in each round. The reviewers rank the model
updates based on the evaluation results and count the number of the updates
with relatively low quality as the estimated number of poisoned updates. Based
on review reports, the server employs a majority voting mechanism to integrate
the rankings and remove the potential poisoned updates in the model aggregation
process. Extensive evaluation on multiple datasets demonstrate that FedReview
can assist the server to learn a well-performed global model in an adversarial
environment.
- Abstract(参考訳): フェデレーション学習は、ユーザデータにアクセスせずにハイパフォーマンスモデルを学ぶための分散的なアプローチとして最近登場した。
その効果にもかかわらず、連合学習は悪意のあるユーザーに対して、有毒なモデル更新をサーバにアップロードすることでモデルを操作する機会を与える。
本稿では,フェデレーション学習における有毒な更新の可能性を特定するためのFedReviewと呼ばれるレビューメカニズムを提案する。
この仕組みでは、サーバはクライアントのサブセットをレビュアーとしてランダムに割り当て、各ラウンドのトレーニングデータセットのモデル更新を評価する。
評価結果に基づいてモデル更新をランク付けし、比較的低い品質の更新数を有毒な更新の推定数としてカウントする。
レビューレポートに基づいて、サーバは多数決機構を採用し、ランキングを統合し、モデル集約プロセスで潜在的に有害な更新を削除する。
複数のデータセットに対する広範囲な評価は、FedReviewがサーバが敵の環境でよくパフォーマンスのよいグローバルモデルを学ぶのを助けることを実証している。
関連論文リスト
- Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - MimiC: Combating Client Dropouts in Federated Learning by Mimicking Central Updates [8.363640358539605]
フェデレートラーニング(FL)は、プライバシー保護のための協調学習のための有望なフレームワークである。
本稿では、任意のクライアントドロップアウトを持つ古典的FedAvgアルゴリズムの収束性について検討する。
次に,MimiCという新しいトレーニングアルゴリズムを設計し,サーバが各モデル更新を前回のモデルに基づいて変更する。
論文 参考訳(メタデータ) (2023-06-21T12:11:02Z) - FedRecover: Recovering from Poisoning Attacks in Federated Learning
using Historical Information [67.8846134295194]
フェデレートラーニングは、悪意のあるクライアントが世界モデルに毒を盛る攻撃に対して脆弱である。
我々はFedRecoverを提案する。これは、クライアントに対して少量のコストで、毒殺攻撃から正確なグローバルモデルを取り戻すことができる。
論文 参考訳(メタデータ) (2022-10-20T00:12:34Z) - MPAF: Model Poisoning Attacks to Federated Learning based on Fake
Clients [51.973224448076614]
本稿では,MPAF と呼ばれる Fake クライアントをベースとした最初のモデルポジショニング攻撃を提案する。
MPAFは、たとえ古典的な防御とノルムクリッピングが採用されたとしても、グローバルモデルのテスト精度を著しく低下させることができる。
論文 参考訳(メタデータ) (2022-03-16T14:59:40Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Gradient Disaggregation: Breaking Privacy in Federated Learning by
Reconstructing the User Participant Matrix [12.678765681171022]
連合学習におけるモデル更新の集約は安全でない可能性があることを示す。
信頼できない中央サーバは、参加者間のアップデートの合計からユーザ更新を分離することができる。
我々の攻撃は、学習したプロパティの個々のユーザへの属性を許容し、匿名性を侵害する。
論文 参考訳(メタデータ) (2021-06-10T23:55:28Z) - Adversarial Robustness through Bias Variance Decomposition: A New
Perspective for Federated Learning [41.525434598682764]
フェデレーション学習は、プライバシ保護制約の下で分散クライアントのグループからの知識を集約することで、ニューラルネットワークモデルを学ぶ。
このパラダイムは、集中型ニューラルネットワークの敵対的脆弱性を継承する可能性がある。
本稿では,サーバとクライアントの更新機構を改善したFed_BVAという,対角的に堅牢なフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-18T18:58:25Z) - Learning to Detect Malicious Clients for Robust Federated Learning [20.5238037608738]
フェデレートされた学習システムは悪意のあるクライアントからの攻撃に弱い。
我々は、中央サーバが悪意あるモデル更新を検出して削除することを学ぶ、堅牢なフェデレーション学習のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-01T14:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。