論文の概要: Loss Tolerant Federated Learning
- arxiv url: http://arxiv.org/abs/2105.03591v1
- Date: Sat, 8 May 2021 04:44:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 15:11:32.081192
- Title: Loss Tolerant Federated Learning
- Title(参考訳): 損失耐性連合学習
- Authors: Pengyuan Zhou, Pei Fang, Pan Hui
- Abstract要約: 本稿では, 集合性, 公平性, パーソナライゼーションの観点から, 損失耐性連合学習 (LT-FL) について検討する。
我々はThrowRightAway (TRA) を用いて、パケット損失を意図的に無視することで、低帯域デバイスのデータアップロードを高速化する。
その結果, TRAと他のアルゴリズムは, 適切な統合により, パケット損失に対して, パーソナライズと公平性を保証できることが示唆された。
- 参考スコア(独自算出の注目度): 6.595005044268588
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated learning has attracted attention in recent years for
collaboratively training data on distributed devices with privacy-preservation.
The limited network capacity of mobile and IoT devices has been seen as one of
the major challenges for cross-device federated learning. Recent solutions have
been focusing on threshold-based client selection schemes to guarantee the
communication efficiency. However, we find this approach can cause biased
client selection and results in deteriorated performance. Moreover, we find
that the challenge of network limit may be overstated in some cases and the
packet loss is not always harmful. In this paper, we explore the loss tolerant
federated learning (LT-FL) in terms of aggregation, fairness, and
personalization. We use ThrowRightAway (TRA) to accelerate the data uploading
for low-bandwidth-devices by intentionally ignoring some packet losses. The
results suggest that, with proper integration, TRA and other algorithms can
together guarantee the personalization and fairness performance in the face of
packet loss below a certain fraction (10%-30%).
- Abstract(参考訳): 近年,プライバシー保護を伴う分散デバイス上でのデータの協調学習が注目されている。
モバイルとIoTデバイスの限られたネットワーク容量は、デバイス間フェデレーション学習における大きな課題の1つと見なされている。
近年,通信効率を確保するためのしきい値ベースのクライアント選択方式に注目している。
しかし,このアプローチはクライアントの選択に偏りが生じ,性能が低下する可能性がある。
さらに,ネットワーク制限の課題が過大評価されている場合もあり,パケット損失が必ずしも有害であるとは限らない。
本稿では,損失耐性フェデレート学習(LT-FL)について,アグリゲーション,フェアネス,パーソナライゼーションの観点から検討する。
我々はThrowRightAway (TRA) を用いて、パケット損失を意図的に無視することで、低帯域デバイスのデータアップロードを高速化する。
その結果、traと他のアルゴリズムは、一定の割合(10%-30%)以下のパケット損失に直面して、パーソナライズと公平性のパフォーマンスを共に保証できることが示唆された。
関連論文リスト
- Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - Edge-device Collaborative Computing for Multi-view Classification [9.047284788663776]
エッジノードとエンドデバイスが相関データと推論計算負荷を共有するエッジでの協調推論について検討する。
本稿では,データ冗長性を効果的に低減し,帯域幅の消費を削減できる選択手法を提案する。
実験結果から、選択的な協調スキームは上記の性能指標間で異なるトレードオフを達成できることが示された。
論文 参考訳(メタデータ) (2024-09-24T11:07:33Z) - Edge-assisted U-Shaped Split Federated Learning with Privacy-preserving
for Internet of Things [4.68267059122563]
本稿では,エッジサーバの高性能機能を活用した,エッジ支援型U-Shaped Split Federated Learning (EUSFL) フレームワークを提案する。
このフレームワークでは、フェデレートラーニング(FL)を活用し、データ保持者がデータを共有せずに協調的にモデルをトレーニングできるようにします。
また,データの特徴やラベルが復元攻撃に対して確実に耐えられるように,ラベルDPと呼ばれる新しいノイズ機構を提案する。
論文 参考訳(メタデータ) (2023-11-08T05:14:41Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Semi-Synchronous Personalized Federated Learning over Mobile Edge
Networks [88.50555581186799]
我々は,モバイルエッジネットワーク上での半同期パーソナライズフェデレーション(PerFedS$2$)と呼ばれる半同期PFLアルゴリズムを提案する。
我々は、グローバルラウンド当たりの参加者数とラウンド数の観点から、PerFedS2の収束率の上限を導出する。
PerFedS2はトレーニング時間を節約し、トレーニング損失の収束を保証する。
論文 参考訳(メタデータ) (2022-09-27T02:12:43Z) - Mixing between the Cross Entropy and the Expectation Loss Terms [89.30385901335323]
クロスエントロピー損失は、トレーニング中にサンプルを分類するのが難しくなる傾向にある。
最適化目標に期待損失を加えることで,ネットワークの精度が向上することを示す。
実験により,新しいトレーニングプロトコルにより,多様な分類領域における性能が向上することが示された。
論文 参考訳(メタデータ) (2021-09-12T23:14:06Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Quantized Federated Learning under Transmission Delay and Outage
Constraints [30.892724364965005]
フェデレートラーニング(Federated Learning)は、無線エッジ内の巨大なモバイルデバイスと協調して機械学習モデルをトレーニングする、実行可能な分散学習パラダイムである。
無線リソースが限られている実用的なシステムでは、多数のモデルパラメータの送信は量子化エラー(QE)と送信停止(TO)に必然的に悩まされる。
我々は,無線リソースと量子化ビットをクライアント間で共同で割り当て,QEを最小化するとともに,クライアントがTO確率を持つようにする,堅牢なFLスキームFedTOEを提案する。
論文 参考訳(メタデータ) (2021-06-17T11:29:12Z) - Packet-Loss-Tolerant Split Inference for Delay-Sensitive Deep Learning
in Lossy Wireless Networks [4.932130498861988]
分散推論では、計算タスクは、損失の多いIoTネットワークを介して、IoTデバイスから他のデバイスやエッジサーバにオフロードされる。
狭帯域および損失の多いIoTネットワークは、非無視可能なパケット損失と再送信を引き起こし、非無視可能な通信遅延を引き起こす。
本稿では,パケットロスが発生しても再送信なしで高精度な分割推定を行うSI-NR法を提案する。
論文 参考訳(メタデータ) (2021-04-28T08:28:22Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Ternary Compression for Communication-Efficient Federated Learning [17.97683428517896]
フェデレートされた学習は、プライバシ保護とセキュアな機械学習に対する潜在的なソリューションを提供する。
本稿では,第3次フェデレーション平均化プロトコル(T-FedAvg)を提案する。
その結果,提案したT-FedAvgは通信コストの低減に有効であり,非IIDデータの性能も若干向上できることがわかった。
論文 参考訳(メタデータ) (2020-03-07T11:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。