論文の概要: Inclusive, Differentially Private Federated Learning for Clinical Data
- arxiv url: http://arxiv.org/abs/2505.22108v1
- Date: Wed, 28 May 2025 08:36:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.501935
- Title: Inclusive, Differentially Private Federated Learning for Clinical Data
- Title(参考訳): 臨床データのための包括的・個人的フェデレーションラーニング
- Authors: Santhosh Parampottupadam, Melih Coşğun, Sarthak Pati, Maximilian Zenk, Saikat Roy, Dimitrios Bounias, Benjamin Hamm, Sinem Sav, Ralf Floca, Klaus Maier-Hein,
- Abstract要約: Federated Learning(FL)は、センシティブな患者データを集中化せずに、臨床AIモデルをトレーニングするための有望なアプローチを提供する。
実際の採用は、プライバシやリソース制約、コンプライアンスに関する課題によって妨げられています。
本稿では,定量的クライアントコンプライアンススコアに基づいて適応的にノイズを調整することでDPを向上する新しいFLフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.45034038207097465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) offers a promising approach for training clinical AI models without centralizing sensitive patient data. However, its real-world adoption is hindered by challenges related to privacy, resource constraints, and compliance. Existing Differential Privacy (DP) approaches often apply uniform noise, which disproportionately degrades model performance, even among well-compliant institutions. In this work, we propose a novel compliance-aware FL framework that enhances DP by adaptively adjusting noise based on quantifiable client compliance scores. Additionally, we introduce a compliance scoring tool based on key healthcare and security standards to promote secure, inclusive, and equitable participation across diverse clinical settings. Extensive experiments on public datasets demonstrate that integrating under-resourced, less compliant clinics with highly regulated institutions yields accuracy improvements of up to 15% over traditional FL. This work advances FL by balancing privacy, compliance, and performance, making it a viable solution for real-world clinical workflows in global healthcare.
- Abstract(参考訳): Federated Learning(FL)は、センシティブな患者データを集中化せずに、臨床AIモデルをトレーニングするための有望なアプローチを提供する。
しかし、実際の採用は、プライバシ、リソース制約、コンプライアンスに関する課題によって妨げられている。
既存の差分プライバシー(DP)アプローチは、しばしば一様ノイズを適用し、よく準拠する機関でさえ、モデル性能を不均等に低下させる。
本研究では,定量的クライアントコンプライアンススコアに基づいて適応的にノイズを調整することでDPを向上する新しいコンプライアンス対応FLフレームワークを提案する。
さらに,主要な医療・セキュリティ基準に基づくコンプライアンススコアリングツールを導入し,多様な臨床環境における安全で包括的で公平な参加を促進する。
公開データセットに関する大規模な実験は、規制の厳しい機関に、リソース不足でコンプライアンスの低いクリニックを統合することで、従来のFLよりも最大15%精度が向上することを示した。
この作業は、プライバシ、コンプライアンス、パフォーマンスのバランスをとることでFLを前進させ、グローバルヘルスケアにおける現実的な臨床ワークフローに実行可能なソリューションとなる。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - FedMetaMed: Federated Meta-Learning for Personalized Medication in Distributed Healthcare Systems [7.32609591220333]
パーソナライズドメディケーションのためのフェデレーションメタラーニング(FedMetaMed)について紹介する。
FedMetaMedは、フェデレーションラーニングとメタラーニングを組み合わせて、医療システム全体にわたる多様な患者データに適応するモデルを作成する。
我々は、FedMetaMedが最先端のFL法より優れ、最先端のコホートでも優れた一般化を示すことを示す。
論文 参考訳(メタデータ) (2024-12-05T03:36:55Z) - Differentially Private Distributed Inference [2.4401219403555814]
臨床試験に協力する医療センターは、知識共有と機密データ保護のバランスを取る必要がある。
情報漏洩を制御するために差分プライバシー(DP)を用いてこの問題に対処する。
エージェントはログリニアルールを通じて信条統計を更新し、DPノイズは信頼性の高い識別性と厳格な性能保証を提供する。
論文 参考訳(メタデータ) (2024-02-13T01:38:01Z) - Improving Multiple Sclerosis Lesion Segmentation Across Clinical Sites:
A Federated Learning Approach with Noise-Resilient Training [75.40980802817349]
深層学習モデルは、自動的にMS病変を分節する約束を示しているが、正確な注釈付きデータの不足は、この分野の進歩を妨げている。
我々は,MS病変の不均衡分布とファジィ境界を考慮したDecoupled Hard Label Correction(DHLC)戦略を導入する。
また,集約型中央モデルを利用したCELC(Centrally Enhanced Label Correction)戦略も導入した。
論文 参考訳(メタデータ) (2023-08-31T00:36:10Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - Federated Uncertainty-Aware Aggregation for Fundus Diabetic Retinopathy
Staging [42.883182872565044]
本稿では,糖尿病網膜症(DR)ステージリングモデルのトレーニングのための新しいフェデレート不確実性認識集約パラダイム(FedUAA)を提案する。
FedUAAは各クライアントの信頼性を考慮し、DRステージングに対する信頼度を推定する。
実験の結果,FedUAAは,他のフェデレート学習法と比較して,信頼性の高いDRステージング性能が向上していることがわかった。
論文 参考訳(メタデータ) (2023-03-23T04:41:44Z) - Federated Learning with Adaptive Batchnorm for Personalized Healthcare [47.52430258876696]
ドメインシフトに対処し、ローカルクライアント向けにパーソナライズされたモデルを得るためにAdaFedを提案する。
AdaFedはバッチ正規化レイヤの統計を通じて、クライアント間の類似性を学ぶ。
5つの医療ベンチマークの実験では、AdaFedは最先端の方法よりも精度が高いことが示されている。
論文 参考訳(メタデータ) (2021-12-01T11:36:56Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。