論文の概要: Harnessing the Power of Federated Learning in Federated Contextual Bandits
- arxiv url: http://arxiv.org/abs/2312.16341v2
- Date: Mon, 16 Sep 2024 01:33:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 03:17:40.787084
- Title: Harnessing the Power of Federated Learning in Federated Contextual Bandits
- Title(参考訳): フェデレーション・コンテクスト・バンドにおけるフェデレーション・ラーニングの力の調和
- Authors: Chengshuai Shi, Ruida Zhou, Kun Yang, Cong Shen,
- Abstract要約: FCB(Federated contextual bandits)は、FLとシーケンシャルな意思決定の重要な統合である。
FCBアプローチは、しばしば標準FLフレームワークから逸脱する、調整されたFLコンポーネントを主に採用している。
特に、回帰に基づくCBアルゴリズムを活用するために、FedIGWと呼ばれる新しいFCB設計が提案されている。
- 参考スコア(独自算出の注目度): 20.835106310302876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has demonstrated great potential in revolutionizing distributed machine learning, and tremendous efforts have been made to extend it beyond the original focus on supervised learning. Among many directions, federated contextual bandits (FCB), a pivotal integration of FL and sequential decision-making, has garnered significant attention in recent years. Despite substantial progress, existing FCB approaches have largely employed their tailored FL components, often deviating from the canonical FL framework. Consequently, even renowned algorithms like FedAvg remain under-utilized in FCB, let alone other FL advancements. Motivated by this disconnection, this work takes one step towards building a tighter relationship between the canonical FL study and the investigations on FCB. In particular, a novel FCB design, termed FedIGW, is proposed to leverage a regression-based CB algorithm, i.e., inverse gap weighting. Compared with existing FCB approaches, the proposed FedIGW design can better harness the entire spectrum of FL innovations, which is concretely reflected as (1) flexible incorporation of (both existing and forthcoming) FL protocols; (2) modularized plug-in of FL analyses in performance guarantees; (3) seamless integration of FL appendages (such as personalization, robustness, and privacy). We substantiate these claims through rigorous theoretical analyses and empirical evaluations.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、分散機械学習に革命をもたらす大きな可能性を示しており、教師付きラーニングに焦点を絞るだけでなく、それを拡張するための多大な努力が続けられている。
多くの方向において、FLとシーケンシャルな意思決定の重要な統合であるFCB(Federated contextual bandits)が近年注目されている。
かなりの進歩にもかかわらず、既存のFCBアプローチは、しばしば標準FLフレームワークから逸脱する、カスタマイズされたFLコンポーネントを主に採用している。
したがって、FedAvgのような有名なアルゴリズムでさえ、他のFLの進歩はもちろん、FCBでは未利用のままである。
この切断に動機づけられたこの研究は、標準FL研究とFCB研究との密接な関係を構築するための一歩を踏み出した。
特に、回帰に基づくCBアルゴリズム、すなわち逆ギャップ重み付けを活用するために、FedIGWと呼ばれる新しいFCB設計が提案されている。
既存のFCBアプローチと比較して、提案されたFedIGW設計は、(1)既存のFLプロトコルの柔軟な組み込み、(2)パフォーマンス保証におけるFL分析のモジュール化されたプラグイン、(3)パーソナライズ、堅牢性、プライバシなど)FLアペンダのシームレスな統合など、FLイノベーションのスペクトル全体を活用することができる。
我々は厳密な理論的分析と経験的評価を通じてこれらの主張を裏付ける。
関連論文リスト
- Free-Rider and Conflict Aware Collaboration Formation for Cross-Silo Federated Learning [32.35705737668307]
Federated Learning(FL)は、複数のFL参加者がプライベートデータを共有せずにトレーニングモデル上でコラボレーションできる機械学習パラダイムである。
我々は、FL-PTがFLエコシステムの恩恵を受ける場合に限り、FL-PTがFLの恩恵を受けることを確実にする最適なFLコラボレーション形成戦略であるFedEgoistsを提案する。
FL-PT連立が最適であることは理論的に証明する。
論文 参考訳(メタデータ) (2024-10-25T06:13:26Z) - Towards Understanding Generalization and Stability Gaps between Centralized and Decentralized Federated Learning [57.35402286842029]
集中学習は常に分散学習(DFL)よりも一般化されていることを示す。
また、FLにおけるいくつかの一般的な設定について実験を行い、我々の理論解析が実験的な現象と一致し、いくつかの一般的なシナリオおよび実践シナリオにおいて文脈的に有効であることを示す。
論文 参考訳(メタデータ) (2023-10-05T11:09:42Z) - Understanding How Consistency Works in Federated Learning via Stage-wise
Relaxed Initialization [84.42306265220274]
フェデレートラーニング(Federated Learning, FL)は、大規模なローカルクライアントを協調してグローバルモデルをトレーニングする分散パラダイムである。
従来の研究は、FLがローカルクライアント間の矛盾した最適性によって引き起こされるクライアント・ドリフトの問題に悩まされていることを暗黙的に研究してきた。
FLにおけるクライアントドリフトの負の影響を緩和し,その物質を探索するために,我々はまず,効率的なFLアルゴリズム textitFedInit を設計する。
論文 参考訳(メタデータ) (2023-06-09T06:55:15Z) - Deep Equilibrium Models Meet Federated Learning [71.57324258813675]
本研究では,従来の深層学習ネットワークの代わりにDeep Equilibrium(DEQ)モデルを用いて,フェデレートラーニング(FL)問題について検討する。
我々は、DECモデルをフェデレート学習フレームワークに組み込むことで、FLのいくつかのオープンな問題に自然に対処できると主張している。
我々の知る限りでは、この研究は、DECモデルとフェデレーションラーニングの関連性を確立する最初のものである。
論文 参考訳(メタデータ) (2023-05-29T22:51:40Z) - Bayesian Federated Learning: A Survey [54.40136267717288]
フェデレートラーニング(FL)は、分散インフラストラクチャ、コミュニケーション、コンピューティング、学習をプライバシ保護の方法で統合する際の利点を示している。
既存のFL手法のロバスト性と能力は、制限された動的データと条件によって挑戦される。
BFLはこれらの問題に対処するための有望なアプローチとして登場した。
論文 参考訳(メタデータ) (2023-04-26T03:41:17Z) - Making Batch Normalization Great in Federated Deep Learning [32.81480654534734]
バッチ正規化(BN)は集中型ディープラーニングにおいて収束と一般化を改善するために広く用いられている。
BNによるトレーニングはパフォーマンスを阻害する可能性があり、グループ正規化(GN)に置き換えることを提案している。
論文 参考訳(メタデータ) (2023-03-12T01:12:43Z) - FLAGS Framework for Comparative Analysis of Federated Learning
Algorithms [0.0]
この研究は、フェデレートラーニングのランドスケープを統合し、主要なFLアルゴリズムの客観的分析を提供する。
FLAGS: Federated Learning AlGorithms Simulationを開発した。
実験の結果,完全分散FLアルゴリズムは複数の動作条件下で同等の精度が得られることがわかった。
論文 参考訳(メタデータ) (2022-12-14T12:08:30Z) - Analysis of Error Feedback in Federated Non-Convex Optimization with
Biased Compression [37.6593006747285]
学習サーバ(FL)システムでは、クライアントと中心的ボトルネックの間の通信コストが高くなる。
本稿では,バイアス圧縮の欠点を解消する手法を提案する。
部分的な参加の下では、いわゆる「ストールエラー蓄積」効果により、余分なスローダウン係数が発達する。
論文 参考訳(メタデータ) (2022-11-25T18:49:53Z) - UniFed: All-In-One Federated Learning Platform to Unify Open-Source
Frameworks [53.20176108643942]
オープンソースフェデレートラーニング(FL)フレームワークを標準化する最初の統一プラットフォームであるUniFedを紹介します。
UniFedは、分散実験とデプロイメントのためのエンドツーエンドワークフローを合理化し、11の人気のあるオープンソースFLフレームワークを含んでいる。
機能、プライバシ保護、パフォーマンスの観点から、11の人気のあるFLフレームワークを評価し比較する。
論文 参考訳(メタデータ) (2022-07-21T05:03:04Z) - Towards Verifiable Federated Learning [15.758657927386263]
Federated Learning(FL)は、強力なモデルを構築しながらユーザのプライバシを保存する、コラボレーション機械学習の新たなパラダイムである。
自己関心のある団体によるオープンな参加の性質から、FLは正当なFL参加者による潜在的な不適切な行動から守らなければならない。
検証可能なフェデレーション学習は、学界や業界からも大きな関心を集めている研究の新たな話題となっている。
論文 参考訳(メタデータ) (2022-02-15T09:52:25Z) - FedComm: Federated Learning as a Medium for Covert Communication [56.376997104843355]
フェデレートラーニング(FL)は、ディープラーニングの採用に伴うプライバシーへの影響を軽減するためのソリューションである。
本稿では,FL方式の通信能力について詳しく検討する。
我々は,新しいマルチシステム被覆通信技術であるFedCommを紹介する。
論文 参考訳(メタデータ) (2022-01-21T17:05:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。