論文の概要: FLamby: Datasets and Benchmarks for Cross-Silo Federated Learning in
Realistic Healthcare Settings
- arxiv url: http://arxiv.org/abs/2210.04620v3
- Date: Fri, 5 May 2023 08:48:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 17:32:37.393342
- Title: FLamby: Datasets and Benchmarks for Cross-Silo Federated Learning in
Realistic Healthcare Settings
- Title(参考訳): flamby: 現実的な医療環境でのクロスサイロフェデレーション学習のためのデータセットとベンチマーク
- Authors: Jean Ogier du Terrail, Samy-Safwan Ayed, Edwige Cyffers, Felix
Grimberg, Chaoyang He, Regis Loeb, Paul Mangold, Tanguy Marchand, Othmane
Marfoq, Erum Mushtaq, Boris Muzellec, Constantin Philippenko, Santiago Silva,
Maria Tele\'nczuk, Shadi Albarqouni, Salman Avestimehr, Aur\'elien Bellet,
Aymeric Dieuleveut, Martin Jaggi, Sai Praneeth Karimireddy, Marco Lorenzi,
Giovanni Neglia, Marc Tommasi, Mathieu Andreux
- Abstract要約: Federated Learning(FL)は、センシティブなデータを保持している複数のクライアントが協力して機械学習モデルをトレーニングできる新しいアプローチである。
本稿では,医療分野に重点を置くクロスサイロ・データセット・スイートFLambyを提案し,クロスサイロ・FLの理論と実践のギャップを埋める。
私たちのフレキシブルでモジュラーなスイートによって、研究者は簡単にデータセットをダウンロードし、結果を再現し、研究のためにさまざまなコンポーネントを再利用することができます。
- 参考スコア(独自算出の注目度): 51.09574369310246
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a novel approach enabling several clients holding
sensitive data to collaboratively train machine learning models, without
centralizing data. The cross-silo FL setting corresponds to the case of few
($2$--$50$) reliable clients, each holding medium to large datasets, and is
typically found in applications such as healthcare, finance, or industry. While
previous works have proposed representative datasets for cross-device FL, few
realistic healthcare cross-silo FL datasets exist, thereby slowing algorithmic
research in this critical application. In this work, we propose a novel
cross-silo dataset suite focused on healthcare, FLamby (Federated Learning
AMple Benchmark of Your cross-silo strategies), to bridge the gap between
theory and practice of cross-silo FL. FLamby encompasses 7 healthcare datasets
with natural splits, covering multiple tasks, modalities, and data volumes,
each accompanied with baseline training code. As an illustration, we
additionally benchmark standard FL algorithms on all datasets. Our flexible and
modular suite allows researchers to easily download datasets, reproduce results
and re-use the different components for their research. FLamby is available
at~\url{www.github.com/owkin/flamby}.
- Abstract(参考訳): フェデレートラーニング(FL)は、センシティブなデータを保持している複数のクライアントが、データを集中することなく、協調的に機械学習モデルをトレーニングできる新しいアプローチである。
クロスサイロのFL設定は、信頼できるクライアントがほとんど($2$--$50$)ない場合に対応し、それぞれが中から大規模なデータセットを保持し、一般的に医療、金融、産業などのアプリケーションで見られる。
これまでの研究では、デバイス間FLの代表的なデータセットが提案されていたが、現実的な医療用クロスサイロFLデータセットはほとんど存在せず、この重要な応用におけるアルゴリズム研究の速度が低下している。
本研究では,医療分野に重点を置くクロスサイロ・データセット・スイートであるFLamby(Federated Learning AMple Benchmark of Your cross-silo Strategy)を提案し,クロスサイロ・FLの理論と実践のギャップを埋める。
flambyは7つの医療データセットを自然な分割で包含しており、複数のタスク、モダリティ、データボリュームをカバーする。
実例として、すべてのデータセットで標準FLアルゴリズムをベンチマークする。
私たちの柔軟でモジュール化されたスイートは、研究者が簡単にデータセットをダウンロードし、結果を再現し、研究のためにさまざまなコンポーネントを再利用できます。
FLambyは~\url{www.github.com/owkin/flamby}で入手できる。
関連論文リスト
- Stalactite: Toolbox for Fast Prototyping of Vertical Federated Learning Systems [37.11550251825938]
本稿では,VFL(Vertical Federated Learning)システムのためのオープンソースのフレームワークであるemphStalactiteを紹介する。
VFLはデータサンプルが複数のデータ所有者にまたがる機能によって分割されるFLの一種である。
実世界のレコメンデーションデータセットでその使い方を実証する。
論文 参考訳(メタデータ) (2024-09-23T21:29:03Z) - Federated Active Learning Framework for Efficient Annotation Strategy in Skin-lesion Classification [1.8149633401257899]
フェデレートラーニング(FL)は、複数の機関がプライベートデータを共有することなく、協力的にモデルをトレーニングすることを可能にする。
アクティブラーニング(AL)は、医用画像解析におけるデータアノテーションの数を減らす上で有望な性能を示した。
本稿では,FL 下で周期的かつ対話的に AL を実行するフェデレーション AL (FedAL) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-17T08:16:28Z) - FedLLM-Bench: Realistic Benchmarks for Federated Learning of Large Language Models [48.484485609995986]
フェデレートラーニングにより、複数のパーティがデータを直接共有することなく、協力的に大きな言語モデルをトレーニングできるようになった(FedLLM)。
現在、FedLLMの現実的なデータセットやベンチマークは存在しない。
我々は,8つのトレーニング手法,4つのトレーニングデータセット,6つの評価指標を含むFedLLM-Benchを提案する。
論文 参考訳(メタデータ) (2024-06-07T11:19:30Z) - A Universal Metric of Dataset Similarity for Cross-silo Federated Learning [0.0]
フェデレートラーニングは、データ共有なしにモデルトレーニングを容易にするために、医療などの分野でますます使われている。
本稿では,データセットの類似性を評価するための新しい指標を提案する。
本稿では,我々の測定値がモデル性能と堅牢かつ解釈可能な関係を示し,プライバシ保護方式で計算可能であることを示す。
論文 参考訳(メタデータ) (2024-04-29T15:08:24Z) - pfl-research: simulation framework for accelerating research in Private Federated Learning [6.421821657238535]
pfl-researchは、Federated Learning(FL)をシミュレートする高速でモジュール化された、使いやすいPythonフレームワークである。
セットアップ、PyTorch、非ニューラルネットワークモデルをサポートし、最先端のアルゴリズムと密に統合されている。
我々は,多様な現実的なシナリオに対して,アルゴリズムの全体的な性能を評価するベンチマークスイートをリリースする。
論文 参考訳(メタデータ) (2024-04-09T16:23:01Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - FLAIR: Federated Learning Annotated Image Repository [40.87802770571535]
クロスデバイス・フェデレーション・ラーニング(クロスデバイス・フェデレーション・ラーニング)は、機械学習(ML)パラダイムである。
本稿では,フェデレート学習に適した多ラベル分類のための大規模アノテート画像データセットFLAIRを紹介する。
このデータセット上で異なるタスクのために、異なる学習設定で複数のベースラインを実装します。
論文 参考訳(メタデータ) (2022-07-18T18:27:04Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z) - FedML: A Research Library and Benchmark for Federated Machine Learning [55.09054608875831]
フェデレート・ラーニング(Federated Learning, FL)は、機械学習の分野で急速に成長している研究分野である。
既存のFLライブラリは多様なアルゴリズム開発を適切にサポートできない。
FLアルゴリズムの開発と公正な性能比較を容易にするための,オープンな研究ライブラリとベンチマークであるFedMLを紹介する。
論文 参考訳(メタデータ) (2020-07-27T13:02:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。