論文の概要: Goal-Oriented Communications in Federated Learning via Feedback on
Risk-Averse Participation
- arxiv url: http://arxiv.org/abs/2305.11633v1
- Date: Fri, 19 May 2023 12:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 14:26:11.418923
- Title: Goal-Oriented Communications in Federated Learning via Feedback on
Risk-Averse Participation
- Title(参考訳): リスク回避参加に対するフィードバックによる連合学習における目標指向コミュニケーション
- Authors: Shashi Raj Pandey, Van Phuc Bui, Petar Popovski
- Abstract要約: クライアント選択の問題をフェデレートラーニング(FL)設定で扱う。
参加者のリスク・アバース特性を取り入れ、通信効率の高いオンデバイス性能を得る。
- 参考スコア(独自算出の注目度): 34.71061940229006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We treat the problem of client selection in a Federated Learning (FL) setup,
where the learning objective and the local incentives of the participants are
used to formulate a goal-oriented communication problem. Specifically, we
incorporate the risk-averse nature of participants and obtain a
communication-efficient on-device performance, while relying on feedback from
the Parameter Server (\texttt{PS}). A client has to decide its transmission
plan on when not to participate in FL. This is based on its intrinsic
incentive, which is the value of the trained global model upon participation by
this client. Poor updates not only plunge the performance of the global model
with added communication cost but also propagate the loss in performance on
other participating devices. We cast the relevance of local updates as
\emph{semantic information} for developing local transmission strategies, i.e.,
making a decision on when to ``not transmit". The devices use feedback about
the state of the PS and evaluate their contributions in training the learning
model in each aggregation period, which eventually lowers the number of
occupied connections. Simulation results validate the efficacy of our proposed
approach, with up to $1.4\times$ gain in communication links utilization as
compared with the baselines.
- Abstract(参考訳): 我々は、学習目標と参加者の局所的なインセンティブを用いて目標指向のコミュニケーション問題を定式化するフェデレートラーニング(FL)システムにおいて、クライアント選択の問題を扱う。
具体的には,パラメータサーバ(\texttt{ps})からのフィードバックを頼りに,参加者のリスク回避性を取り入れ,通信効率の高いオンデバイスパフォーマンスを得る。
クライアントは、FLに参加していない場合の送信計画を決定する必要がある。
これは本質的なインセンティブに基づいており、このクライアントが参加すると、トレーニングされたグローバルモデルの価値が分かる。
更新の貧弱さは、通信コストを増し、グローバルモデルの性能を低下させるだけでなく、他の参加デバイスの性能低下を助長する。
我々は、ローカルな送信戦略、すなわち ``not transmission' のタイミングを決定するための、ローカルな更新の関連性を \emph{semantic information} としてキャストした。
デバイスはPSの状態に関するフィードバックを使用し、各アグリゲーション期間における学習モデルのトレーニングへの貢献を評価し、最終的に占有された接続数を減少させる。
シミュレーションの結果,提案手法の有効性が検証され,ベースラインと比較して通信リンク利用率が最大1.4\times$上昇した。
関連論文リスト
- FedComLoc: Communication-Efficient Distributed Training of Sparse and Quantized Models [56.21666819468249]
フェデレートラーニング(FL)は、異種クライアントがローカルにプライベートデータを処理し、中央サーバーと対話できるというユニークな特徴から、注目を集めている。
我々は,emphScaffnewに実用的で効果的な圧縮を統合し,通信効率を向上するFedComLocを紹介した。
論文 参考訳(メタデータ) (2024-03-14T22:29:59Z) - Efficient Cross-Domain Federated Learning by MixStyle Approximation [0.3277163122167433]
ハードウェア制約環境におけるクライアント適応のための,プライバシ保護,リソース効率の高いフェデレーション学習の概念を導入する。
このアプローチには、ソースデータに対するサーバモデル事前トレーニングと、ローエンドクライアントによるターゲットデータへの微調整が含まれる。
予備的な結果は,下流タスクにおける競合性能を維持しながら,計算コストと伝送コストを削減できることを示唆している。
論文 参考訳(メタデータ) (2023-12-12T08:33:34Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Asynchronous Online Federated Learning with Reduced Communication
Requirements [6.282767337715445]
通信効率のよい非同期オンライン連合学習(PAO-Fed)戦略を提案する。
参加者のコミュニケーションオーバーヘッドを減らすことで,学習課題への参加をよりアクセスしやすく,効率的に行うことができる。
提案手法の総合シミュレーションを行い,提案手法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-27T14:06:05Z) - On the Design of Communication-Efficient Federated Learning for Health
Monitoring [21.433739206682404]
本稿では,クライアントクラスタリングと伝達学習を含む通信効率のよいフェデレーション学習(CEFL)フレームワークを提案する。
CEFLは従来のFLと比較して、通信コストを最大98.45%削減でき、精度損失は3%未満である。
論文 参考訳(メタデータ) (2022-11-30T12:52:23Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - Over-The-Air Federated Learning under Byzantine Attacks [43.67333971183711]
フェデレートラーニング(FL)は多くのAIアプリケーションを実現するための有望なソリューションである。
FLは、クライアントがローカルデータを共有せずに、中央サーバが管理するトレーニングフェーズに参加することを可能にする。
FLの主な課題の1つは、通信オーバーヘッドである。
本稿では,このような攻撃の効果を低減するための送信・集約フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-05T22:09:21Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。