論文の概要: Federated Learning for Clinical Structured Data: A Benchmark Comparison
of Engineering and Statistical Approaches
- arxiv url: http://arxiv.org/abs/2311.03417v1
- Date: Mon, 6 Nov 2023 10:11:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 18:16:08.238770
- Title: Federated Learning for Clinical Structured Data: A Benchmark Comparison
of Engineering and Statistical Approaches
- Title(参考訳): 臨床構造データに対するフェデレーション学習:工学的アプローチと統計的アプローチの比較
- Authors: Siqi Li, Di Miao, Qiming Wu, Chuan Hong, Danny D'Agostino, Xin Li,
Yilin Ning, Yuqing Shang, Huazhu Fu, Marcus Eng Hock Ong, Hamed Haddadi, Nan
Liu
- Abstract要約: フェデレートラーニング(FL)は、医療コラボレーションにおけるデータのプライバシ保護の有望な可能性を示している。
FL」という言葉は元々エンジニアリングコミュニティによって造られたものであるが、統計分野も同様のプライバシー保護アルゴリズムを探求している。
本稿では工学と統計の両分野からFLフレームワークを総合的に比較する。
- 参考スコア(独自算出の注目度): 37.192249479129444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has shown promising potential in safeguarding data
privacy in healthcare collaborations. While the term "FL" was originally coined
by the engineering community, the statistical field has also explored similar
privacy-preserving algorithms. Statistical FL algorithms, however, remain
considerably less recognized than their engineering counterparts. Our goal was
to bridge the gap by presenting the first comprehensive comparison of FL
frameworks from both engineering and statistical domains. We evaluated five FL
frameworks using both simulated and real-world data. The results indicate that
statistical FL algorithms yield less biased point estimates for model
coefficients and offer convenient confidence interval estimations. In contrast,
engineering-based methods tend to generate more accurate predictions, sometimes
surpassing central pooled and statistical FL models. This study underscores the
relative strengths and weaknesses of both types of methods, emphasizing the
need for increased awareness and their integration in future FL applications.
- Abstract(参考訳): federated learning(fl)は、医療コラボレーションにおけるデータプライバシの保護に有望な可能性を示している。
flという言葉は元々エンジニアリングコミュニティによって作られたが、統計学の分野でも同様のプライバシー保護アルゴリズムも研究されている。
しかし、統計的FLアルゴリズムは、工学的なアルゴリズムに比べて認識がかなり少ない。
私たちの目標は、エンジニアリングドメインと統計ドメインの両方からflフレームワークを初めて包括的に比較することで、ギャップを埋めることにあります。
シミュレーションデータと実世界のデータを用いて5つのFLフレームワークを評価した。
その結果,統計的flアルゴリズムはモデル係数に対する偏り点推定を少なくし,信頼区間推定に便利であることがわかった。
対照的に、工学に基づく手法はより正確な予測を生成し、時には中央プール型モデルや統計型flモデルを超える。
本研究は,両手法の相対的強みと弱みを強調し,今後のflアプリケーションへの認知度向上と統合の必要性を強調した。
関連論文リスト
- Privacy-preserving Federated Primal-dual Learning for Non-convex and
Non-smooth Problems with Model Sparsification [54.767648945613004]
フェデレートラーニング(FL)は急速に成長している分野として認識されている。
パラメータの非平滑性と非共有性は、FLアプリケーションで一般的である。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - The Applicability of Federated Learning to Official Statistics [0.5461938536945721]
本研究は,公式統計学におけるフェデレートラーニングの可能性について考察する。
これは、FLモデルの性能が集中的な学習方法にいかに追いつくかを示す。
論文 参考訳(メタデータ) (2023-07-28T11:58:26Z) - FederatedTrust: A Solution for Trustworthy Federated Learning [3.202927443898192]
IoT(Internet of Things)の急速な拡張により、中央集権型機械学習(ML/DL)メソッドの課題が提示された。
データプライバシに関する懸念に対処するため、フェデレートラーニング(FL)のような、協調的でプライバシ保護のML/DL技術が登場した。
論文 参考訳(メタデータ) (2023-02-20T09:02:24Z) - ISFL: Trustworthy Federated Learning for Non-i.i.d. Data with Local
Importance Sampling [11.806062800053699]
本稿では,特にニューラルネットワーク(NN)モデルと互換性のある重要サンプリングフェデレーション学習(ISFL)を提案する。
我々の知る限りでは、ISFLは、理論的なNN互換を示す局所的なサンプリングの側面から、最初の非i.d.FLソリューションである。
論文 参考訳(メタデータ) (2022-10-05T09:43:58Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Towards Federated Learning on Time-Evolving Heterogeneous Data [13.080665001587281]
Federated Learning(FL)は、エッジデバイス上でクライアントデータのローカリティを保証することによって、プライバシを保護する、新たな学習パラダイムである。
異種データの最適化に関する最近の研究にもかかわらず、実世界のシナリオにおける異種データの時間進化の影響は十分に研究されていない。
本稿では,FLの時間発展的不均一性を捉えるために,フレキシブルなフレームワークであるContinual Federated Learning (CFL)を提案する。
論文 参考訳(メタデータ) (2021-12-25T14:58:52Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Tight Mutual Information Estimation With Contrastive Fenchel-Legendre
Optimization [69.07420650261649]
我々はFLOと呼ばれる新しい,シンプルで強力なコントラストMI推定器を提案する。
実証的に、我々のFLO推定器は前者の限界を克服し、より効率的に学習する。
FLOの有効性は、広範囲なベンチマークを用いて検証され、実際のMI推定におけるトレードオフも明らかにされる。
論文 参考訳(メタデータ) (2021-07-02T15:20:41Z) - Prototype Guided Federated Learning of Visual Feature Representations [15.021124010665194]
Federated Learning(FL)は、分散モデルトレーニングを可能にするフレームワークである。
既存の手法は、内部表現を無視したモデルを集約する。
我々は、分散データ上で学習した表現のマージンを用いてクライアントの偏差を計算するFedProtoを紹介する。
論文 参考訳(メタデータ) (2021-05-19T08:29:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。