論文の概要: Federated Learning for Clinical Structured Data: A Benchmark Comparison
of Engineering and Statistical Approaches
- arxiv url: http://arxiv.org/abs/2311.03417v1
- Date: Mon, 6 Nov 2023 10:11:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 18:16:08.238770
- Title: Federated Learning for Clinical Structured Data: A Benchmark Comparison
of Engineering and Statistical Approaches
- Title(参考訳): 臨床構造データに対するフェデレーション学習:工学的アプローチと統計的アプローチの比較
- Authors: Siqi Li, Di Miao, Qiming Wu, Chuan Hong, Danny D'Agostino, Xin Li,
Yilin Ning, Yuqing Shang, Huazhu Fu, Marcus Eng Hock Ong, Hamed Haddadi, Nan
Liu
- Abstract要約: フェデレートラーニング(FL)は、医療コラボレーションにおけるデータのプライバシ保護の有望な可能性を示している。
FL」という言葉は元々エンジニアリングコミュニティによって造られたものであるが、統計分野も同様のプライバシー保護アルゴリズムを探求している。
本稿では工学と統計の両分野からFLフレームワークを総合的に比較する。
- 参考スコア(独自算出の注目度): 37.192249479129444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has shown promising potential in safeguarding data
privacy in healthcare collaborations. While the term "FL" was originally coined
by the engineering community, the statistical field has also explored similar
privacy-preserving algorithms. Statistical FL algorithms, however, remain
considerably less recognized than their engineering counterparts. Our goal was
to bridge the gap by presenting the first comprehensive comparison of FL
frameworks from both engineering and statistical domains. We evaluated five FL
frameworks using both simulated and real-world data. The results indicate that
statistical FL algorithms yield less biased point estimates for model
coefficients and offer convenient confidence interval estimations. In contrast,
engineering-based methods tend to generate more accurate predictions, sometimes
surpassing central pooled and statistical FL models. This study underscores the
relative strengths and weaknesses of both types of methods, emphasizing the
need for increased awareness and their integration in future FL applications.
- Abstract(参考訳): federated learning(fl)は、医療コラボレーションにおけるデータプライバシの保護に有望な可能性を示している。
flという言葉は元々エンジニアリングコミュニティによって作られたが、統計学の分野でも同様のプライバシー保護アルゴリズムも研究されている。
しかし、統計的FLアルゴリズムは、工学的なアルゴリズムに比べて認識がかなり少ない。
私たちの目標は、エンジニアリングドメインと統計ドメインの両方からflフレームワークを初めて包括的に比較することで、ギャップを埋めることにあります。
シミュレーションデータと実世界のデータを用いて5つのFLフレームワークを評価した。
その結果,統計的flアルゴリズムはモデル係数に対する偏り点推定を少なくし,信頼区間推定に便利であることがわかった。
対照的に、工学に基づく手法はより正確な予測を生成し、時には中央プール型モデルや統計型flモデルを超える。
本研究は,両手法の相対的強みと弱みを強調し,今後のflアプリケーションへの認知度向上と統合の必要性を強調した。
関連論文リスト
- Benchmarking Data Heterogeneity Evaluation Approaches for Personalized Federated Learning [31.52293772126033]
提案するベンチマークフレームワークには,6つの代表的なアプローチが含まれている。
1)PFLスキームの設計,(2)特定のFLアプリケーションシナリオに対する適切なデータ不均一性評価アプローチの選択,(3)協調モデルトレーニングにおける公平性の問題に対処する。
論文 参考訳(メタデータ) (2024-10-09T13:16:02Z) - Can We Theoretically Quantify the Impacts of Local Updates on the Generalization Performance of Federated Learning? [50.03434441234569]
フェデレートラーニング(FL)は、直接データ共有を必要とせず、さまざまなサイトで機械学習モデルをトレーニングする効果により、大きな人気を集めている。
局所的な更新を伴うFLは通信効率のよい分散学習フレームワークであることが様々なアルゴリズムによって示されているが、局所的な更新によるFLの一般化性能は比較的低い。
論文 参考訳(メタデータ) (2024-09-05T19:00:18Z) - StatAvg: Mitigating Data Heterogeneity in Federated Learning for Intrusion Detection Systems [22.259297167311964]
フェデレートラーニング(FL)は、デバイスが生データを第三者に公開することなく、共同で機械学習(ML)またはディープラーニング(DL)モデルを構築することができる分散学習技術である。
プライバシー保護の性質から、FLはサイバーセキュリティの領域内で侵入検知システム(IDS)を構築するために広く注目を集めている。
FLにおけるローカルクライアントのデータ間で,非独立かつ同一の(非ID)分散機能を緩和する,統計的平均化(StatAvg)と呼ばれる有効な手法を提案する。
論文 参考訳(メタデータ) (2024-05-20T14:41:59Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - The Applicability of Federated Learning to Official Statistics [0.5461938536945721]
本研究は,公式統計学におけるフェデレートラーニングの可能性について考察する。
これは、FLモデルの性能が集中的な学習方法にいかに追いつくかを示す。
論文 参考訳(メタデータ) (2023-07-28T11:58:26Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Towards Federated Learning on Time-Evolving Heterogeneous Data [13.080665001587281]
Federated Learning(FL)は、エッジデバイス上でクライアントデータのローカリティを保証することによって、プライバシを保護する、新たな学習パラダイムである。
異種データの最適化に関する最近の研究にもかかわらず、実世界のシナリオにおける異種データの時間進化の影響は十分に研究されていない。
本稿では,FLの時間発展的不均一性を捉えるために,フレキシブルなフレームワークであるContinual Federated Learning (CFL)を提案する。
論文 参考訳(メタデータ) (2021-12-25T14:58:52Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Prototype Guided Federated Learning of Visual Feature Representations [15.021124010665194]
Federated Learning(FL)は、分散モデルトレーニングを可能にするフレームワークである。
既存の手法は、内部表現を無視したモデルを集約する。
我々は、分散データ上で学習した表現のマージンを用いてクライアントの偏差を計算するFedProtoを紹介する。
論文 参考訳(メタデータ) (2021-05-19T08:29:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。