論文の概要: Towards Fair, Robust and Efficient Client Contribution Evaluation in
Federated Learning
- arxiv url: http://arxiv.org/abs/2402.04409v1
- Date: Tue, 6 Feb 2024 21:07:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 17:57:14.646428
- Title: Towards Fair, Robust and Efficient Client Contribution Evaluation in
Federated Learning
- Title(参考訳): フェデレーション学習における公平でロバストで効率的な顧客貢献評価に向けて
- Authors: Meiying Zhang, Huan Zhao, Sheldon Ebron, Kan Yang
- Abstract要約: FRECA(Fair, Robust, Efficient Client Assessment)と呼ばれる新しい手法を導入する。
FRECAはFedTruthというフレームワークを使用して、グローバルモデルの真実の更新を見積もり、すべてのクライアントからのコントリビューションのバランスをとり、悪意のあるクライアントからの影響をフィルタリングする。
実験の結果,FRECAはクライアントのコントリビューションをロバストな方法で正確かつ効率的に定量化できることがわかった。
- 参考スコア(独自算出の注目度): 16.543724155324938
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The performance of clients in Federated Learning (FL) can vary due to various
reasons. Assessing the contributions of each client is crucial for client
selection and compensation. It is challenging because clients often have
non-independent and identically distributed (non-iid) data, leading to
potentially noisy or divergent updates. The risk of malicious clients amplifies
the challenge especially when there's no access to clients' local data or a
benchmark root dataset. In this paper, we introduce a novel method called Fair,
Robust, and Efficient Client Assessment (FRECA) for quantifying client
contributions in FL. FRECA employs a framework called FedTruth to estimate the
global model's ground truth update, balancing contributions from all clients
while filtering out impacts from malicious ones. This approach is robust
against Byzantine attacks and incorporates a Byzantine-resilient aggregation
algorithm. FRECA is also efficient, as it operates solely on local model
updates and requires no validation operations or datasets. Our experimental
results show that FRECA can accurately and efficiently quantify client
contributions in a robust manner.
- Abstract(参考訳): フェデレーション学習(fl)におけるクライアントのパフォーマンスは、さまざまな理由により異なる可能性がある。
各クライアントの貢献度を評価することは、クライアントの選択と補償に不可欠である。
クライアントが非独立で同一に分散した(非ID)データを持つことが多いため、ノイズや発散する可能性があるため、これは難しい。
悪意のあるクライアントのリスクは、特にクライアントのローカルデータやベンチマークルートデータセットにアクセスできない場合の課題を増幅する。
本稿ではFRECA(Fair, Robust, Efficient Client Assessment)と呼ばれる新しい手法を提案する。
FRECAはFedTruthというフレームワークを使用して、グローバルモデルの真実の更新を見積もり、すべてのクライアントからのコントリビューションのバランスをとり、悪意のあるクライアントからの影響をフィルタリングする。
このアプローチはビザンチン攻撃に対して堅牢であり、ビザンチン耐性集約アルゴリズムを取り入れている。
FRECAはローカルモデルの更新のみで動作し、検証操作やデータセットを必要としないため、効率も良い。
実験の結果,frecaはロバストな方法で顧客貢献を正確かつ効率的に定量化できることがわかった。
関連論文リスト
- ConDa: Fast Federated Unlearning with Contribution Dampening [46.074452659791575]
ConDaは、各クライアントのグローバルモデルに影響を与えるパラメータを追跡することによって、効率的なアンラーニングを実行するフレームワークである。
複数のデータセットで実験を行い、ConDaがクライアントのデータを忘れるのが効果的であることを実証する。
論文 参考訳(メタデータ) (2024-10-05T12:45:35Z) - FedAR: Addressing Client Unavailability in Federated Learning with Local Update Approximation and Rectification [8.747592727421596]
フェデレートラーニング(FL)は、クライアントがサーバの調整の下で機械学習モデルを協調的にトレーニングすることを可能にする。
FedARは、すべてのクライアントをグローバルモデルアップデートに参加させて、サーバ上の高品質なグローバルモデルを達成することができます。
FedARはまた、多くのクライアントが存在し、クライアントが利用できないという印象的なパフォーマンスを描いている。
論文 参考訳(メタデータ) (2024-07-26T21:56:52Z) - Federated Graph-based Sampling with Arbitrary Client Availability [34.95352685954059]
本稿では,FedGS(Federated Graph-based Smpling)というフレームワークを提案する。
実験結果から,FedGSが公正なクライアントサンプリング方式を実現し,任意のクライアントアベイラビリティの下でモデル性能を向上させるという利点が確認できた。
論文 参考訳(メタデータ) (2022-11-25T09:38:20Z) - Knowledge-Aware Federated Active Learning with Non-IID Data [75.98707107158175]
本稿では,アノテーション予算に制限のあるグローバルモデルを効率的に学習するための,連合型アクティブラーニングパラダイムを提案する。
フェデレートされたアクティブラーニングが直面する主な課題は、サーバ上のグローバルモデルのアクティブサンプリング目標と、ローカルクライアントのアクティブサンプリング目標とのミスマッチである。
本稿では,KSAS (Knowledge-Aware Federated Active Learning) とKCFU (Knowledge-Compensatory Federated Update) を組み合わせた,知識対応型アクティブ・ラーニング(KAFAL)を提案する。
論文 参考訳(メタデータ) (2022-11-24T13:08:43Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - Federated Learning Under Intermittent Client Availability and
Time-Varying Communication Constraints [29.897785907692644]
フェデレートされた学習システムは、断続的なクライアントの可用性および/または時間変化の通信制約を伴う設定で動作する。
可用性に依存したクライアント選択戦略を学習する非バイアスアルゴリズムであるF3ASTを提案する。
CIFAR100とシェークスピアでそれぞれ186%,FedAvgは8%,FedAdamは7%であった。
論文 参考訳(メタデータ) (2022-05-13T16:08:58Z) - Communication-Efficient Federated Learning with Accelerated Client Gradient [46.81082897703729]
フェデレーション学習は、クライアントデータセットの不均一な特徴のために、遅くて不安定な収束に悩まされることが多い。
本稿では,クライアント間の一貫性を改善し,サーバモデルの収束を容易にする,シンプルだが効果的なフェデレーション学習フレームワークを提案する。
我々は,アルゴリズムの理論的収束率を示し,精度と通信効率の点で顕著な性能向上を示す。
論文 参考訳(メタデータ) (2022-01-10T05:31:07Z) - Federated Noisy Client Learning [105.00756772827066]
フェデレートラーニング(FL)は、複数のローカルクライアントに依存する共有グローバルモデルを協調的に集約する。
標準FLメソッドは、集約されたモデル全体のパフォーマンスを損なううるノイズの多いクライアントの問題を無視します。
本稿では,Fed-NCL (Federated Noisy Client Learning) を提案する。
論文 参考訳(メタデータ) (2021-06-24T11:09:17Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。