論文の概要: Value of Information and Timing-aware Scheduling for Federated Learning
- arxiv url: http://arxiv.org/abs/2312.10512v1
- Date: Sat, 16 Dec 2023 17:51:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 16:04:33.741152
- Title: Value of Information and Timing-aware Scheduling for Federated Learning
- Title(参考訳): フェデレーション学習における情報の価値とタイミング対応スケジューリング
- Authors: Muhammad Azeem Khan, Howard H. Yang, Zihan Chen, Antonio Iera,
Nikolaos Pappas
- Abstract要約: Federated Learning (FL)は、トレーニング中にデータのプライバシを保存するソリューションを提供する。
FLは、アクセスポイント(AP)によるローカルトレーニングのために、ユーザー機器(UE)に直接モデルをもたらす。
- 参考スコア(独自算出の注目度): 24.40692354824834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data possesses significant value as it fuels advancements in AI. However,
protecting the privacy of the data generated by end-user devices has become
crucial. Federated Learning (FL) offers a solution by preserving data privacy
during training. FL brings the model directly to User Equipments (UEs) for
local training by an access point (AP). The AP periodically aggregates trained
parameters from UEs, enhancing the model and sending it back to them. However,
due to communication constraints, only a subset of UEs can update parameters
during each global aggregation. Consequently, developing innovative scheduling
algorithms is vital to enable complete FL implementation and enhance FL
convergence. In this paper, we present a scheduling policy combining Age of
Update (AoU) concepts and data Shapley metrics. This policy considers the
freshness and value of received parameter updates from individual data sources
and real-time channel conditions to enhance FL's operational efficiency. The
proposed algorithm is simple, and its effectiveness is demonstrated through
simulations.
- Abstract(参考訳): aiの進歩を促進するデータには大きな価値があります。
しかし、エンドユーザデバイスが生成するデータのプライバシ保護が重要になっている。
Federated Learning (FL)は、トレーニング中にデータのプライバシを保存するソリューションを提供する。
flはモデルをユーザ機器(ues)に直接もたらし、アクセスポイント(ap)によってローカルトレーニングを行う。
APは、UEからトレーニングされたパラメータを定期的に集約し、モデルを強化し、それらに返送する。
しかしながら、通信制約のため、グローバルアグリゲーション毎にパラメータを更新できるのはUEのサブセットのみである。
したがって、FLの完全な実装とFL収束を高めるためには、革新的なスケジューリングアルゴリズムの開発が不可欠である。
本稿では、Age of Update(AoU)の概念とデータ共有メトリクスを組み合わせたスケジューリングポリシーを提案する。
このポリシーでは、個々のデータソースから受信したパラメータ更新の鮮度と値を考慮し、flの運用効率を向上させる。
提案手法は単純であり,シミュレーションによりその効果を実証する。
関連論文リスト
- FedMAP: Unlocking Potential in Personalized Federated Learning through Bi-Level MAP Optimization [11.040916982022978]
フェデレートラーニング(FL)は、分散データに基づく機械学習モデルの協調トレーニングを可能にする。
クライアント間でのデータはしばしば、クラス不均衡、特徴分散スキュー、サンプルサイズ不均衡、その他の現象によって大きく異なる。
本稿では,バイレベル最適化を用いた新しいベイズPFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T11:28:06Z) - StatAvg: Mitigating Data Heterogeneity in Federated Learning for Intrusion Detection Systems [22.259297167311964]
フェデレートラーニング(FL)は、デバイスが生データを第三者に公開することなく、共同で機械学習(ML)またはディープラーニング(DL)モデルを構築することができる分散学習技術である。
プライバシー保護の性質から、FLはサイバーセキュリティの領域内で侵入検知システム(IDS)を構築するために広く注目を集めている。
FLにおけるローカルクライアントのデータ間で,非独立かつ同一の(非ID)分散機能を緩和する,統計的平均化(StatAvg)と呼ばれる有効な手法を提案する。
論文 参考訳(メタデータ) (2024-05-20T14:41:59Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Version age-based client scheduling policy for federated learning [25.835001146856396]
フェデレートラーニング(FL)は、ローカルデータを共有することなく、複数のクライアント間の協調トレーニングを容易にする、プライバシ保護機械学習パラダイムとして登場した。
エッジデバイス能力の進歩にもかかわらず、通信ボトルネックは多数のクライアントを集約する上での課題を示す。
この現象は、FLにおけるストラグラーの致命的な課題と、クライアントスケジューリングポリシーがグローバルモデル収束と安定性に与える影響を提起する。
論文 参考訳(メタデータ) (2024-02-08T04:48:51Z) - Federated Learning with Reduced Information Leakage and Computation [17.069452700698047]
フェデレートラーニング(Federated Learning, FL)は、分散学習パラダイムであり、複数の分散クライアントが、ローカルデータを共有せずに共通のモデルを共同で学習することを可能にする。
本稿では,モデル更新毎に一階近似を適用する手法であるUpcycled-FLを紹介する。
この戦略の下では、FL更新の半分は情報漏洩を伴わず、計算と送信のコストを大幅に削減する。
論文 参考訳(メタデータ) (2023-10-10T06:22:06Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Scheduling and Aggregation Design for Asynchronous Federated Learning
over Wireless Networks [56.91063444859008]
Federated Learning(FL)は、デバイス上でのトレーニングとサーバベースのアグリゲーションを組み合わせた、協調的な機械学習フレームワークである。
FLシステムにおけるストラグラー問題に対処するために,周期的アグリゲーションを用いた非同期FL設計を提案する。
年齢認識の集約重み付け設計は,非同期FL設定における学習性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-14T17:33:01Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - User Scheduling for Federated Learning Through Over-the-Air Computation [22.853678584121862]
FL(Federated Learning)と呼ばれる新しい機械学習技術は、エッジデバイスにおけるデータの保存と、学習プロセスにおけるMLモデルパラメータの交換のみを目的としている。
FLは通信ニーズを減らすだけでなく、地域のプライバシーを守るのにも役立ちます。
AirCompは、アナログ変調を用いて複数のデバイスが同時にデータを送信できるようにすることで、データを送信しながら計算することができる。
論文 参考訳(メタデータ) (2021-08-05T23:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。