論文の概要: Investigation of Federated Learning Algorithms for Retinal Optical
Coherence Tomography Image Classification with Statistical Heterogeneity
- arxiv url: http://arxiv.org/abs/2402.10035v1
- Date: Thu, 15 Feb 2024 15:58:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 15:13:51.370095
- Title: Investigation of Federated Learning Algorithms for Retinal Optical
Coherence Tomography Image Classification with Statistical Heterogeneity
- Title(参考訳): 統計的不均一性を考慮した網膜光コヒーレンストモグラフィ画像分類のためのフェデレート学習アルゴリズムの検討
- Authors: Sanskar Amgain, Prashant Shrestha, Sophia Bano, Ignacio del Valle
Torres, Michael Cunniffe, Victor Hernandez, Phil Beales, Binod Bhattarai
- Abstract要約: 我々は,OCT画像分類モデルを分散的に学習するためのFedAvgとFedProxの有効性を検討した。
IID と Non-IID 設定で複数のクライアントに公開可能な OCT データセットを分割し,各クライアントのサブセットをローカルにトレーニングした。
- 参考スコア(独自算出の注目度): 6.318288071829899
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: We apply federated learning to train an OCT image classifier
simulating a realistic scenario with multiple clients and statistical
heterogeneous data distribution where data in the clients lack samples of some
categories entirely.
Methods: We investigate the effectiveness of FedAvg and FedProx to train an
OCT image classification model in a decentralized fashion, addressing privacy
concerns associated with centralizing data. We partitioned a publicly available
OCT dataset across multiple clients under IID and Non-IID settings and
conducted local training on the subsets for each client. We evaluated two
federated learning methods, FedAvg and FedProx for these settings.
Results: Our experiments on the dataset suggest that under IID settings, both
methods perform on par with training on a central data pool. However, the
performance of both algorithms declines as we increase the statistical
heterogeneity across the client data, while FedProx consistently performs
better than FedAvg in the increased heterogeneity settings.
Conclusion: Despite the effectiveness of federated learning in the
utilization of private data across multiple medical institutions, the large
number of clients and heterogeneous distribution of labels deteriorate the
performance of both algorithms. Notably, FedProx appears to be more robust to
the increased heterogeneity.
- Abstract(参考訳): 目的: 複数のクライアントで現実的なシナリオをシミュレートしたOCT画像分類器の訓練にフェデレートラーニングを適用し,クライアント内のデータに全カテゴリのサンプルが欠落している統計的異種データ分布について検討する。
方法: 集中化データに関連するプライバシー問題に対処し, OCT画像分類モデルを分散的に学習するためのFedAvgとFedProxの有効性を検討する。
IID と Non-IID 設定で複数のクライアントに公開可能な OCT データセットを分割し,各クライアントのサブセットをローカルにトレーニングした。
この2つのフェデレーション学習手法であるFedAvgとFedProxを評価した。
結果: このデータセットの実験では,IDD設定下では,両方のメソッドが中央データプールのトレーニングと同等に動作することが示唆された。
しかし、クライアントデータ間の統計的不均一性の増加に伴い、両方のアルゴリズムの性能は低下し、一方FedProxは不均一性の設定の増大においてFedAvgよりも一貫してパフォーマンスが向上する。
結論: 複数の医療機関間での個人データの利用における連合学習の有効性にもかかわらず, 多数のクライアントとラベルの異種分布は両アルゴリズムの性能を低下させた。
特に、FedProxは不均一性の増加に対してより堅牢であるようだ。
関連論文リスト
- FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - CADIS: Handling Cluster-skewed Non-IID Data in Federated Learning with
Clustered Aggregation and Knowledge DIStilled Regularization [3.3711670942444014]
フェデレーション学習は、エッジデバイスがデータを公開することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
我々は、実際のデータセットで発見されたクラスタスキュード非IIDと呼ばれる新しいタイプの非IIDデータに取り組む。
本稿では,クラスタ間の平等を保証するアグリゲーション方式を提案する。
論文 参考訳(メタデータ) (2023-02-21T02:53:37Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - FedDRL: Deep Reinforcement Learning-based Adaptive Aggregation for
Non-IID Data in Federated Learning [4.02923738318937]
異なるエッジデバイス(クライアント)にまたがるローカルデータの不均一な分散は、フェデレート学習における遅いモデルトレーニングと精度の低下をもたらす。
この研究は、実世界のデータセット、すなわちクラスタスキューで発生する新しい非IID型を導入している。
我々は,各クライアントのインパクト要因を適応的に決定するために,深層強化学習を用いた新しいFLモデルであるFedDRLを提案する。
論文 参考訳(メタデータ) (2022-08-04T04:24:16Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Speeding up Heterogeneous Federated Learning with Sequentially Trained
Superclients [19.496278017418113]
フェデレートラーニング(FL)は、ローカルなデータ共有を必要とせず、エッジデバイスの協調を可能にすることにより、プライバシに制約のあるシナリオで機械学習モデルをトレーニングすることを可能にする。
このアプローチは、ローカルデータセットとクライアントの計算的不均一性の異なる統計分布のために、いくつかの課題を提起する。
我々は、多種多様なクライアント、すなわちスーパークオリエントの部分グループのシーケンシャルトレーニングを活用して、集中型パラダイムをプライバシに準拠した方法でエミュレートする新しいフレームワークであるFedSeqを提案する。
論文 参考訳(メタデータ) (2022-01-26T12:33:23Z) - FedSLD: Federated Learning with Shared Label Distribution for Medical
Image Classification [6.0088002781256185]
分類タスクのための共有ラベル分布(FedSLD)を用いたフェデレートラーニングを提案する。
FedSLDは、分布の知識が与えられた場合、最適化中に各データサンプルの局所的な目的への貢献を調整する。
その結果,FedSLDは従来のFL最適化アルゴリズムよりもコンバージェンス性能が高いことがわかった。
論文 参考訳(メタデータ) (2021-10-15T21:38:25Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。