論文の概要: COALA: A Practical and Vision-Centric Federated Learning Platform
- arxiv url: http://arxiv.org/abs/2407.16560v1
- Date: Tue, 23 Jul 2024 15:14:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-24 16:45:46.279520
- Title: COALA: A Practical and Vision-Centric Federated Learning Platform
- Title(参考訳): COALA: 実践的でビジョン中心のフェデレーション学習プラットフォーム
- Authors: Weiming Zhuang, Jian Xu, Chen Chen, Jingtao Li, Lingjuan Lyu,
- Abstract要約: 我々は、ビジョン中心のフェデレートラーニング(FL)プラットフォームであるCOALAと、実践的なFLシナリオのためのベンチマークスイートを提示する。
タスクレベルでは、COALAは単純な分類から、オブジェクト検出、セグメンテーション、ポーズ推定などを含む15のコンピュータビジョンタスクまでサポートを拡張している。
データレベルでは、COALAは監督FLを超え、半監督FLと教師なしFLの両方をベンチマークする。
モデルレベルでは、COALAはFLを異なるクライアントの分割モデルと異なるモデルでベンチマークする。
- 参考スコア(独自算出の注目度): 41.70257072407389
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present COALA, a vision-centric Federated Learning (FL) platform, and a suite of benchmarks for practical FL scenarios, which we categorize into three levels: task, data, and model. At the task level, COALA extends support from simple classification to 15 computer vision tasks, including object detection, segmentation, pose estimation, and more. It also facilitates federated multiple-task learning, allowing clients to tackle multiple tasks simultaneously. At the data level, COALA goes beyond supervised FL to benchmark both semi-supervised FL and unsupervised FL. It also benchmarks feature distribution shifts other than commonly considered label distribution shifts. In addition to dealing with static data, it supports federated continual learning for continuously changing data in real-world scenarios. At the model level, COALA benchmarks FL with split models and different models in different clients. COALA platform offers three degrees of customization for these practical FL scenarios, including configuration customization, components customization, and workflow customization. We conduct systematic benchmarking experiments for the practical FL scenarios and highlight potential opportunities for further advancements in FL. Codes are open sourced at https://github.com/SonyResearch/COALA.
- Abstract(参考訳): 我々は、ビジョン中心のフェデレートラーニング(FL)プラットフォームであるCOALAと、実用的なFLシナリオのためのベンチマークスイートを提示し、タスク、データ、モデルという3つのレベルに分類する。
タスクレベルでは、COALAは単純な分類から、オブジェクト検出、セグメンテーション、ポーズ推定などを含む15のコンピュータビジョンタスクまでサポートを拡張している。
また、フェデレートされたマルチタスク学習を促進し、クライアントが複数のタスクを同時に処理できるようにする。
データレベルでは、COALAは監督FLを超え、半監督FLと教師なしFLの両方をベンチマークする。
また、一般的に考慮されているラベル分布シフト以外の特徴分布シフトもベンチマークする。
静的データを扱うことに加えて、実際のシナリオでデータを継続的に変更するためのフェデレーション付き連続学習をサポートする。
モデルレベルでは、COALAはFLを異なるクライアントの分割モデルと異なるモデルでベンチマークする。
COALAプラットフォームは、構成のカスタマイズ、コンポーネントのカスタマイズ、ワークフローのカスタマイズを含む、これらの実用的なFLシナリオに対して、3度のカスタマイズを提供する。
本研究では,FLシナリオの系統的なベンチマーク実験を行い,FLのさらなる発展の可能性を明らかにする。
コードはhttps://github.com/SonyResearch/COALA.comで公開されている。
関連論文リスト
- Can We Theoretically Quantify the Impacts of Local Updates on the Generalization Performance of Federated Learning? [50.03434441234569]
フェデレートラーニング(FL)は、直接データ共有を必要とせず、さまざまなサイトで機械学習モデルをトレーニングする効果により、大きな人気を集めている。
局所的な更新を伴うFLは通信効率のよい分散学習フレームワークであることが様々なアルゴリズムによって示されているが、局所的な更新によるFLの一般化性能は比較的低い。
論文 参考訳(メタデータ) (2024-09-05T19:00:18Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Language-Guided Transformer for Federated Multi-Label Classification [32.26913287627532]
フェデレートラーニング(FL)は、複数のユーザがプライベートデータを共有せずに、プライバシー保護の方法で堅牢なモデルを共同でトレーニングすることを可能にする。
FLの既存のアプローチのほとんどは、タスクをマルチラベル画像分類に移行する際の影響を無視して、従来のシングルラベル画像分類のみを考慮する。
本稿では,この課題に対処するために,言語ガイドトランスフォーマー(FedLGT)の新たなFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-12T11:03:51Z) - FLGo: A Fully Customizable Federated Learning Platform [23.09038374160798]
FLGoと呼ばれる軽量なフェデレーション学習プラットフォームを提案する。
私たちのプラットフォームは、アウトオブボックスプラグインとして、40以上のベンチマーク、20以上のアルゴリズム、および2つのシステムシミュレータを提供しています。
また,並列加速度,実験トラッカ,パラメータ自動チューニングなどの実験ツールも開発している。
論文 参考訳(メタデータ) (2023-06-21T07:55:29Z) - FS-Real: Towards Real-World Cross-Device Federated Learning [60.91678132132229]
Federated Learning (FL)は、ローカルデータをアップロードすることなく、分散クライアントと協調して高品質なモデルをトレーニングすることを目的としている。
FL研究と実世界のシナリオの間には依然としてかなりのギャップがあり、主に異種デバイスの特徴とそのスケールによって引き起こされている。
本稿では,実世界横断デバイスFL,FS-Realのための効率的でスケーラブルなプロトタイピングシステムを提案する。
論文 参考訳(メタデータ) (2023-03-23T15:37:17Z) - FLamby: Datasets and Benchmarks for Cross-Silo Federated Learning in
Realistic Healthcare Settings [51.09574369310246]
Federated Learning(FL)は、センシティブなデータを保持している複数のクライアントが協力して機械学習モデルをトレーニングできる新しいアプローチである。
本稿では,医療分野に重点を置くクロスサイロ・データセット・スイートFLambyを提案し,クロスサイロ・FLの理論と実践のギャップを埋める。
私たちのフレキシブルでモジュラーなスイートによって、研究者は簡単にデータセットをダウンロードし、結果を再現し、研究のためにさまざまなコンポーネントを再利用することができます。
論文 参考訳(メタデータ) (2022-10-10T12:17:30Z) - Test-Time Robust Personalization for Federated Learning [5.553167334488855]
Federated Learning(FL)は、多くのクライアントが分散トレーニングデータで共有グローバルモデルを共同で学習する機械学習パラダイムである。
パーソナライズされたFLは、グローバルモデルを異なるクライアントに適応させ、一貫したローカルトレーニングとテスト分布に関する有望な結果を達成する。
テスト時間分布シフトに頑健なFLモデルをパーソナライズするフェデレーションテスト時ヘッドアンサンブルとチューニング(FedTHE+)を提案する。
論文 参考訳(メタデータ) (2022-05-22T20:08:14Z) - FederatedScope: A Comprehensive and Flexible Federated Learning Platform
via Message Passing [63.87056362712879]
我々は,メッセージ指向フレームワークを基盤とした,新しい総合的なフェデレート学習プラットフォームであるFederatedScopeを提案する。
手続き型フレームワークと比較して、提案されたメッセージ指向フレームワークは異種メッセージ交換を表現するのに柔軟である。
我々は、FederatedScopeの正確性と効率性を検証するために、提供された簡易かつ包括的なFLベンチマークについて一連の実験を行った。
論文 参考訳(メタデータ) (2022-04-11T11:24:21Z) - FedCV: A Federated Learning Framework for Diverse Computer Vision Tasks [38.012182901565616]
Federated Learning(FL)は、エッジデバイス上の分散データセットからグローバルあるいはパーソナライズされたモデルを学ぶことのできる、分散学習パラダイムである。
FLは、オブジェクト検出やイメージセグメンテーションといった高度なコンピュータビジョンタスクにおいて、効果的に実証されることはめったにない。
非I.D.ベンチマークデータセット、モデル、および様々な参照FLアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-11-22T09:26:08Z) - FedScale: Benchmarking Model and System Performance of Federated
Learning [4.1617240682257925]
FedScaleは、連邦学習(FL)研究のための、挑戦的で現実的なベンチマークデータセットのセットである。
FedScaleはオープンソースで、寛容なライセンスを持ち、積極的にメンテナンスされている。
論文 参考訳(メタデータ) (2021-05-24T15:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。