論文の概要: DearFSAC: An Approach to Optimizing Unreliable Federated Learning via
Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2201.12701v1
- Date: Sun, 30 Jan 2022 01:47:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 15:16:19.256286
- Title: DearFSAC: An Approach to Optimizing Unreliable Federated Learning via
Deep Reinforcement Learning
- Title(参考訳): DearFSAC: 深層強化学習による信頼できないフェデレーション学習の最適化
- Authors: Chenghao Huang, Weilong Chen, Yuxi Chen, Shunji Yang and Yanru Zhang
- Abstract要約: 本稿では,DearFSAC (Defect-AwaRe Federated soft actor-critic) を提案する。
DearFSACは、独立および同一分散(IID)と非IID設定の2つのデータセットに対して、既存の3つのアプローチより優れている。
- 参考スコア(独自算出の注目度): 3.516494777812123
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In federated learning (FL), model aggregation has been widely adopted for
data privacy. In recent years, assigning different weights to local models has
been used to alleviate the FL performance degradation caused by differences
between local datasets. However, when various defects make the FL process
unreliable, most existing FL approaches expose weak robustness. In this paper,
we propose the DEfect-AwaRe federated soft actor-critic (DearFSAC) to
dynamically assign weights to local models to improve the robustness of FL. The
deep reinforcement learning algorithm soft actor-critic is adopted for
near-optimal performance and stable convergence. Besides, an auto-encoder is
trained to output low-dimensional embedding vectors that are further utilized
to evaluate model quality. In the experiments, DearFSAC outperforms three
existing approaches on four datasets for both independent and identically
distributed (IID) and non-IID settings under defective scenarios.
- Abstract(参考訳): フェデレーション学習(fl)では,モデル集約がデータのプライバシに広く採用されている。
近年、局所的なデータセットの違いによるFL性能劣化を軽減するために、局所的なモデルに異なる重みを割り当てている。
しかし、様々な欠陥がFLプロセスの信頼性を損なうと、既存のFLアプローチのほとんどは弱い堅牢性を示す。
本稿では,局所モデルに動的に重みを割り当て,flのロバスト性を向上させるための欠陥認識型フェデレートソフトアクタ-クリティック(dearfsac)を提案する。
深部強化学習アルゴリズムは, ほぼ最適性能と安定収束性に, ソフトアクター・クリティックを採用している。
さらに、オートエンコーダを用いて低次元埋め込みベクトルを出力し、モデル品質を評価する。
実験では、DearFSACは、障害シナリオ下で、独立および同一分散(IID)および非IID設定の4つのデータセットに対して、既存の3つのアプローチより優れている。
関連論文リスト
- Unlocking the Potential of Model Calibration in Federated Learning [15.93119575317457]
モデルキャリブレーションの概念とFLを統合した汎用フレームワークであるNon-Uniform for Federated Learning (NUCFL)を提案する。
OurFLは、各クライアントのローカルモデルとFLのグローバルモデルの関係に基づいてモデルキャリブレーションを動的に調整することで、この問題に対処する。
これにより、FLは精度を犠牲にすることなく、グローバルモデルのキャリブレーション要求を効果的に調整する。
論文 参考訳(メタデータ) (2024-09-07T20:11:11Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - AEDFL: Efficient Asynchronous Decentralized Federated Learning with
Heterogeneous Devices [61.66943750584406]
異種環境におけるAEDFL(Asynchronous Efficient Decentralized FL framework)を提案する。
まず、FL収束を改善するための効率的なモデル集約手法を用いた非同期FLシステムモデルを提案する。
次に,より優れた精度を実現するために,動的安定化を考慮したモデル更新手法を提案する。
第3に,通信コストと計算コストを大幅に削減する適応スパース学習法を提案する。
論文 参考訳(メタデータ) (2023-12-18T05:18:17Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - FedCos: A Scene-adaptive Federated Optimization Enhancement for
Performance Improvement [11.687451505965655]
我々は,コサイン類似性ペナルティを導入することにより,局所モデルの方向性の不整合を低減するFedCosを提案する。
我々は、FedCosがよく知られたベースラインより優れており、様々なFLシーンでそれらを強化できることを示す。
FedCosの助けを借りて、複数のFLメソッドは、同等の性能のモデルを得るために、以前よりもはるかに少ない通信ラウンドを必要とする。
論文 参考訳(メタデータ) (2022-04-07T02:59:54Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - FedCAT: Towards Accurate Federated Learning via Device Concatenation [4.416919766772866]
Federated Learning(FL)は、すべてのデバイスが、ローカルデータのプライバシを公開することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
非IIDシナリオでは、データの不均一性に起因する重みのばらつきにより、FLモデルの分類精度が大幅に低下する。
本稿では,Fed-Cat という新しいFLアプローチを導入し,提案したデバイス選択戦略とデバイス結合に基づく局所学習手法に基づいて,高精度なモデル精度を実現する。
論文 参考訳(メタデータ) (2022-02-23T10:08:43Z) - Efficient Federated Learning for AIoT Applications Using Knowledge
Distillation [2.5892786553124085]
フェデレートラーニング(FL)は、ユーザのプライバシを損なうことなく、中央モデルを分散データでトレーニングする。
従来のFLは、ハードラベルのデータを使用してローカルモデルをトレーニングするため、モデル不正確さに悩まされている。
本稿では, AIoTアプリケーションに対して, 効率的かつ正確なFLを実現するための, 蒸留に基づく新しいフェデレートラーニングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-29T06:40:42Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。