論文の概要: Bayesian Federated Inference for estimating Statistical Models based on
Non-shared Multicenter Data sets
- arxiv url: http://arxiv.org/abs/2302.07677v2
- Date: Sat, 9 Mar 2024 19:28:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 17:48:58.879692
- Title: Bayesian Federated Inference for estimating Statistical Models based on
Non-shared Multicenter Data sets
- Title(参考訳): 非共有多センターデータセットに基づく統計モデル推定のためのベイズ連立推論
- Authors: Marianne A. Jonker, Hassan Pazira, Anthony CC Coolen
- Abstract要約: Federated Learning(FL)は、異なるデータセンターのローカル推論から構築することを目的とした機械学習アプローチである。
我々は、FLと同じ目的のマルチセンターデータのための代替ベイズ連邦推論(BFI)フレームワークを実装した。
シミュレーションおよび実生活データに基づいて提案手法の性能を定量化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Identifying predictive factors for an outcome of interest via a multivariable
analysis is often difficult when the data set is small. Combining data from
different medical centers into a single (larger) database would alleviate this
problem, but is in practice challenging due to regulatory and logistic
problems. Federated Learning (FL) is a machine learning approach that aims to
construct from local inferences in separate data centers what would have been
inferred had the data sets been merged. It seeks to harvest the statistical
power of larger data sets without actually creating them. The FL strategy is
not always efficient and precise. Therefore, in this paper we refine and
implement an alternative Bayesian Federated Inference (BFI) framework for
multicenter data with the same aim as FL. The BFI framework is designed to cope
with small data sets by inferring locally not only the optimal parameter
values, but also additional features of the posterior parameter distribution,
capturing information beyond what is used in FL. BFI has the additional benefit
that a single inference cycle across the centers is sufficient, whereas FL
needs multiple cycles. We quantify the performance of the proposed methodology
on simulated and real life data.
- Abstract(参考訳): 多変量解析によって利子結果の予測因子を特定することは、データセットが小さい場合、しばしば難しい。
異なる医療センターからのデータを単一の(より大きな)データベースに組み込むことでこの問題が軽減されるが、実際には規制とロジスティックの問題のために困難である。
Federated Learning(FL)は、データセットがマージされた場合に推論されたであろう、別のデータセンターのローカル推論から構築することを目的とした機械学習アプローチである。
実際にデータを生成することなく、より大きなデータセットの統計力を収集しようとしている。
FL戦略は必ずしも効率的で正確ではない。
そこで本稿では,FLと同じ目的のマルチセンターデータに対して,ベイズ連邦推論(BFI)フレームワークを改良し,実装する。
BFIフレームワークは、最適なパラメータ値だけでなく、後続パラメータ分布の付加的な特徴を局所的に推測することで、小さなデータセットに対処するように設計されている。
BFIには、中心をまたいだ単一の推論サイクルが十分であるという利点があるが、FLには複数のサイクルが必要である。
シミュレーションおよび実生活データに基づいて提案手法の性能を定量化する。
関連論文リスト
- FedEP: Tailoring Attention to Heterogeneous Data Distribution with Entropy Pooling for Decentralized Federated Learning [8.576433180938004]
本稿では,新しいDFL集約アルゴリズムFederated Entropy Pooling (FedEP)を提案する。
FedEPは、実際のデータではなく、局所分布の統計特性を取り入れることで、クライアントのドリフト問題を緩和する。
実験により、FedEPは最先端のアプローチよりも早く収束し、高いテスト性能を示すことが示されている。
論文 参考訳(メタデータ) (2024-10-10T07:39:15Z) - A Framework for testing Federated Learning algorithms using an edge-like environment [0.0]
フェデレーテッド・ラーニング(FL)は、多くのクライアントが、データをプライベートかつ分散化しながら、単一の集中型モデルを協調的にトレーニングする機械学習パラダイムである。
グローバル集中型モデルアグリゲーションにおける局所モデルの貢献を正確に評価するのは簡単ではない。
これはFLにおける大きな挑戦の例であり、一般にデータ不均衡またはクラス不均衡として知られている。
本研究では,FLアルゴリズムをより容易かつスケーラブルに評価するためのフレームワークを提案し,実装した。
論文 参考訳(メタデータ) (2024-07-17T19:52:53Z) - FedMAP: Unlocking Potential in Personalized Federated Learning through Bi-Level MAP Optimization [11.040916982022978]
フェデレートラーニング(FL)は、分散データに基づく機械学習モデルの協調トレーニングを可能にする。
クライアント間でのデータはしばしば、クラス不均衡、特徴分散スキュー、サンプルサイズ不均衡、その他の現象によって大きく異なる。
本稿では,バイレベル最適化を用いた新しいベイズPFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T11:28:06Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Semi-Supervised Federated Learning with non-IID Data: Algorithm and
System Design [42.63120623012093]
フェデレートラーニング(FL)は、エッジデバイス(またはクライアント)がデータをローカルに保持し、同時に共有グローバルモデルをトレーニングすることを可能にする。
クライアントのローカルトレーニングデータの分布は、非独立に均等に分散されている(非IID)
本稿では、FLにおけるデータ可用性と非IIDの問題を解決することを目的とした、堅牢な半教師付きFLシステム設計を提案する。
論文 参考訳(メタデータ) (2021-10-26T03:41:48Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z) - Inverse Distance Aggregation for Federated Learning with Non-IID Data [48.48922416867067]
近年,フェデレートラーニング(FL)は医用画像の分野で有望なアプローチである。
FLにおける重要な問題は、特に医療シナリオにおいて、ノイズの多い分散クライアントやアウトオブディストリビューションクライアントに対して堅牢な、より正確な共有モデルを持つことである。
非平衡データと非IDデータを扱うメタ情報に基づく新しい適応重み付け手法であるIDAを提案する。
論文 参考訳(メタデータ) (2020-08-17T23:20:01Z) - Federated learning with hierarchical clustering of local updates to
improve training on non-IID data [3.3517146652431378]
一つのジョイントモデルを学ぶことは、特定の種類の非IDデータが存在する場合に最適ではないことがよく示される。
階層的クラスタリングステップ(FL+HC)を導入することでFLに修正を加える。
FL+HCは,クラスタリングを伴わないFLに比べて,より少ない通信ラウンドでモデルトレーニングを収束させることができることを示す。
論文 参考訳(メタデータ) (2020-04-24T15:16:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。