論文の概要: Towards More Efficient Data Valuation in Healthcare Federated Learning
using Ensembling
- arxiv url: http://arxiv.org/abs/2209.05424v1
- Date: Mon, 12 Sep 2022 17:30:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 12:33:48.074171
- Title: Towards More Efficient Data Valuation in Healthcare Federated Learning
using Ensembling
- Title(参考訳): 統合型医療連携学習におけるデータ評価の効率化に向けて
- Authors: Sourav Kumar, A. Lakshminarayanan, Ken Chang, Feri Guretno, Ivan Ho
Mien, Jayashree Kalpathy-Cramer, Pavitra Krishnaswamy and Praveer Singh
- Abstract要約: SaFE(Shapley Value for Federated Learning using Ensembling)と呼ばれる効率的なSV計算手法を提案する。
実験により、SaFEは正確なSVに近い値を計算し、現在のSV近似よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 9.025937488927621
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated Learning (FL) wherein multiple institutions collaboratively train a
machine learning model without sharing data is becoming popular. Participating
institutions might not contribute equally, some contribute more data, some
better quality data or some more diverse data. To fairly rank the contribution
of different institutions, Shapley value (SV) has emerged as the method of
choice. Exact SV computation is impossibly expensive, especially when there are
hundreds of contributors. Existing SV computation techniques use
approximations. However, in healthcare where the number of contributing
institutions are likely not of a colossal scale, computing exact SVs is still
exorbitantly expensive, but not impossible. For such settings, we propose an
efficient SV computation technique called SaFE (Shapley Value for Federated
Learning using Ensembling). We empirically show that SaFE computes values that
are close to exact SVs, and that it performs better than current SV
approximations. This is particularly relevant in medical imaging setting where
widespread heterogeneity across institutions is rampant and fast accurate data
valuation is required to determine the contribution of each participant in
multi-institutional collaborative learning.
- Abstract(参考訳): 複数の機関が共同でデータを共有せずに機械学習モデルをトレーニングするフェデレーション学習(fl)が普及している。
参加する機関は平等に貢献するものではなく、より多くのデータ、より良い品質データ、より多様なデータに貢献するものもある。
異なる機関の貢献を公平にランク付けするために、選択方法としてシェープ価値(SV)が登場した。
特に何百人ものコントリビュータがいる場合、SV計算は非常に高価である。
既存のsv計算技術は近似を用いる。
しかし、コントリビューション機関の数が余計な規模ではなさそうにない医療では、正確なSVの計算はいまだに高価だが不可能ではない。
そこで本稿では,SaFE (Shapley Value for Federated Learning using Ensembling) と呼ばれる効率的なSV計算手法を提案する。
実験により、SaFEは正確なSVに近い値を計算し、現在のSV近似よりも優れた性能を示す。
これは、多施設共同学習における各参加者の貢献度を決定するために、組織間の広範な異質性が急増し、迅速なデータ評価が必要となる医療画像環境に特に関係している。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Vicinal Feature Statistics Augmentation for Federated 3D Medical Volume
Segmentation [17.096806029281385]
FL(Federated Learning)は、複数のクライアント医療機関が、プライバシー保護を備えたディープラーニング(DL)モデルを共同でトレーニングすることを可能にする。
しかし、FLの性能は、小さな機関におけるラベル付きデータの限られた可用性と、機関間での不均一な(すなわち非i.d.)データ分散によって制限される。
我々は,局所的な特徴シフトを効果的に緩和し,プライバシーに配慮したFLセグメンテーションのための協調トレーニングを容易にするために,ビジナルな特徴レベルデータ拡張手法を開発した。
論文 参考訳(メタデータ) (2023-10-23T21:14:52Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Scalable Data Point Valuation in Decentralized Learning [14.920108247015463]
我々は分散データ評価のためのDDValと呼ばれる手法を開発した。
DDVal は k-nearest 近傍近似法による深い特徴の共有とShapley 値の近似に基づいている。
DDValはデータポイントが少ないクライアントが多いデータ分散シナリオにおいて特に効率的であることを示す。
論文 参考訳(メタデータ) (2023-05-01T22:15:50Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - Fair and efficient contribution valuation for vertical federated
learning [49.50442779626123]
フェデレートラーニング(Federated Learning)は、データを共有することなく、分散データソース上で機械学習モデルをトレーニングするための一般的な技術である。
シェープリー値(Shapley value, SV)は、協調ゲーム理論から派生した、証明可能なフェアコントリビューション評価指標である。
本稿では,SVに基づく垂直結合シェープ値(VerFedSV)と呼ばれるコントリビューション評価指標を提案する。
論文 参考訳(メタデータ) (2022-01-07T19:57:15Z) - Non-IID data and Continual Learning processes in Federated Learning: A
long road ahead [58.720142291102135]
フェデレートラーニング(Federated Learning)は、複数のデバイスや機関が、データをプライベートに保存しながら、機械学習モデルを協調的にトレーニングすることを可能にする、新しいフレームワークである。
本研究では,データの統計的不均一性を正式に分類し,それに直面することのできる最も顕著な学習戦略をレビューする。
同時に、継続学習のような他の機械学習フレームワークからのアプローチを導入し、データの不均一性にも対処し、フェデレートラーニング設定に容易に適応できるようにします。
論文 参考訳(メタデータ) (2021-11-26T09:57:11Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z) - Accelerating Federated Learning in Heterogeneous Data and Computational
Environments [0.7106986689736825]
本稿では,分散検証集合に対するフェデレーションにおける学習者の性能を評価する分散検証重み付け方式(DVW)を提案する。
我々は、DVWがFedAvgのような確立された手法よりも優れた性能をもたらすことを実証的に示す。
論文 参考訳(メタデータ) (2020-08-25T21:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。