論文の概要: From Challenges and Pitfalls to Recommendations and Opportunities: Implementing Federated Learning in Healthcare
- arxiv url: http://arxiv.org/abs/2409.09727v2
- Date: Tue, 04 Feb 2025 16:56:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:55:31.244886
- Title: From Challenges and Pitfalls to Recommendations and Opportunities: Implementing Federated Learning in Healthcare
- Title(参考訳): 課題と落とし穴からレコメンデーションと機会へ:医療におけるフェデレートラーニングの実践
- Authors: Ming Li, Pengcheng Xu, Junjie Hu, Zeyu Tang, Guang Yang,
- Abstract要約: フェデレートラーニングは、複数のセンターで大規模なヘルスケア研究とコラボレーションを可能にする大きな可能性を秘めている。
近年の多くの研究は、医療におけるフェデレートラーニングに基づく手法を提案または活用しているが、どちらの方法が潜在的な臨床的有用性を持っているかは定かではない。
- 参考スコア(独自算出の注目度): 15.241382001139774
- License:
- Abstract: Federated learning holds great potential for enabling large-scale healthcare research and collaboration across multiple centres while ensuring data privacy and security are not compromised. Although numerous recent studies suggest or utilize federated learning based methods in healthcare, it remains unclear which ones have potential clinical utility. This review paper considers and analyzes the most recent studies up to May 2024 that describe federated learning based methods in healthcare. After a thorough review, we find that the vast majority are not appropriate for clinical use due to their methodological flaws and/or underlying biases which include but are not limited to privacy concerns, generalization issues, and communication costs. As a result, the effectiveness of federated learning in healthcare is significantly compromised. To overcome these challenges, we provide recommendations and promising opportunities that might be implemented to resolve these problems and improve the quality of model development in federated learning with healthcare.
- Abstract(参考訳): フェデレートされた学習は、複数のセンターで大規模なヘルスケア研究とコラボレーションを可能にし、データのプライバシとセキュリティが損なわれないようにする大きな可能性を秘めている。
近年の多くの研究は、医療におけるフェデレートラーニングに基づく手法を提案または活用しているが、どちらの方法が潜在的な臨床的有用性を持っているかは定かではない。
本稿では,2024年5月までの医療におけるフェデレーション・ラーニング・ベースの手法に関する最新の研究を考察し,分析する。
徹底的なレビューの結果、大多数は方法論上の欠陥やプライバシー問題、一般化問題、通信コストに限らず、根底にあるバイアスのために臨床利用には適さないことが判明した。
その結果、医療における連合学習の有効性は著しく損なわれている。
これらの課題を克服するため、我々は、これらの問題を解決するために実施されるレコメンデーションと有望な機会を提供し、医療連携学習におけるモデル開発の品質を向上させる。
関連論文リスト
- Advances in Privacy Preserving Federated Learning to Realize a Truly Learning Healthcare System [0.2748450182087935]
学習医療システム(LHS)の概念は、患者医療からのマルチモーダルデータを継続的に分析し、将来の医療成果を高める自己改善ネットワークを構想している。
プライバシ保護フェデレートラーニング(PPFL)は変革的で有望なアプローチであり、これらの課題に対処する可能性がある。
本稿では,医学研究所 (IOM) Roundtable が定義した,真の LHS を実現するために,PPFL を医療エコシステムに統合するビジョンを提案する。
論文 参考訳(メタデータ) (2024-09-29T20:02:40Z) - Federated Learning in Healthcare: Model Misconducts, Security, Challenges, Applications, and Future Research Directions -- A Systematic Review [2.710010611878837]
フェデレートラーニング(FL)は、複数の医療機関が共有することなく、分散データから共同で学ぶことを可能にする。
FLの医療分野は、疾患予測、治療のカスタマイズ、臨床試験研究などの分野をカバーしている。
FLの実装は、非IIDデータ環境におけるモデル収束、通信オーバーヘッド、複数機関の協調管理など、課題を提起する。
論文 参考訳(メタデータ) (2024-05-22T16:59:50Z) - A Toolbox for Surfacing Health Equity Harms and Biases in Large Language Models [20.11590976578911]
大規模言語モデル(LLM)は、複雑な健康情報のニーズを満たすことを約束すると同時に、健康格差を悪化させる可能性がある。
エクイティ関連モデル失敗の信頼性評価は、ヘルスエクイティを促進するシステムを開発するための重要なステップである。
医学的問題に対するLLMによる長期的回答において、株式関連害を生じさせる可能性のあるバイアスを克服するためのリソースと方法論を提示する。
論文 参考訳(メタデータ) (2024-03-18T17:56:37Z) - Multimodal Federated Learning in Healthcare: a Review [5.983768682145731]
フェデレートラーニング(FL)は、データを統合する必要のない分散メカニズムを提供する。
本稿では,医療分野におけるマルチモーダル・フェデレート・ラーニング(MMFL)の現状について概説する。
最先端のAI技術と、医療アプリケーションにおける患者のデータプライバシの必要性のギャップを埋めることを目指している。
論文 参考訳(メタデータ) (2023-10-14T19:43:06Z) - Federated Learning for Medical Image Analysis: A Survey [16.800565615106784]
医療画像における機械学習は、しばしば基本的なジレンマに直面している。
有望なソリューションとして、クロスサイトデータを共有することなく、さまざまなサイトからのデータに基づいて機械学習モデルの協調トレーニングを可能にするフェデレーション学習が近年注目を集めている。
論文 参考訳(メタデータ) (2023-06-09T15:46:42Z) - Privacy-preserving machine learning for healthcare: open challenges and
future perspectives [72.43506759789861]
医療におけるプライバシー保護機械学習(PPML)に関する最近の文献を概観する。
プライバシ保護トレーニングと推論・アズ・ア・サービスに重点を置いています。
このレビューの目的は、医療におけるプライベートかつ効率的なMLモデルの開発をガイドすることである。
論文 参考訳(メタデータ) (2023-03-27T19:20:51Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Clinical trial site matching with improved diversity using fair policy
learning [56.01170456417214]
我々は,臨床治験記述を潜在的な試験現場のランクリストにマッピングするモデルを学習する。
既存のフェアネスフレームワークとは異なり、各トライアルサイトのグループメンバーシップは非バイナリである。
このようなマルチグループメンバーシップシナリオに対処するために、人口統計学的妥当性に基づく公平性基準を提案する。
論文 参考訳(メタデータ) (2022-04-13T16:35:28Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。