論文の概要: A Robust Pipeline for Differentially Private Federated Learning on Imbalanced Clinical Data using SMOTETomek and FedProx
- arxiv url: http://arxiv.org/abs/2508.10017v1
- Date: Wed, 06 Aug 2025 20:47:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.010954
- Title: A Robust Pipeline for Differentially Private Federated Learning on Imbalanced Clinical Data using SMOTETomek and FedProx
- Title(参考訳): SMOTETomekとFedProxを用いた不均衡な臨床データに基づく個人的フェデレーション学習のためのロバストパイプライン
- Authors: Rodrigo Tertulino,
- Abstract要約: Federated Learning (FL)は、共同健康研究のための画期的なアプローチである。
FLは、差分プライバシー(DP)と組み合わせて正式なセキュリティ保証を提供する
プライバシーユーティリティフロンティアで最適な運用領域が特定された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) presents a groundbreaking approach for collaborative health research, allowing model training on decentralized data while safeguarding patient privacy. FL offers formal security guarantees when combined with Differential Privacy (DP). The integration of these technologies, however, introduces a significant trade-off between privacy and clinical utility, a challenge further complicated by the severe class imbalance often present in medical datasets. The research presented herein addresses these interconnected issues through a systematic, multi-stage analysis. An FL framework was implemented for cardiovascular risk prediction, where initial experiments showed that standard methods struggled with imbalanced data, resulting in a recall of zero. To overcome such a limitation, we first integrated the hybrid Synthetic Minority Over-sampling Technique with Tomek Links (SMOTETomek) at the client level, successfully developing a clinically useful model. Subsequently, the framework was optimized for non-IID data using a tuned FedProx algorithm. Our final results reveal a clear, non-linear trade-off between the privacy budget (epsilon) and model recall, with the optimized FedProx consistently out-performing standard FedAvg. An optimal operational region was identified on the privacy-utility frontier, where strong privacy guarantees (with epsilon 9.0) can be achieved while maintaining high clinical utility (recall greater than 77%). Ultimately, our study provides a practical methodological blueprint for creating effective, secure, and accurate diagnostic tools that can be applied to real-world, heterogeneous healthcare data.
- Abstract(参考訳): Federated Learning (FL)は、協力的な健康研究のための画期的なアプローチを示し、患者プライバシを保護しながら、分散データのモデルトレーニングを可能にする。
FLは、差分プライバシー(DP)と組み合わせることで、正式なセキュリティ保証を提供する。
しかし、これらの技術の統合は、プライバシと臨床ユーティリティの間に大きなトレードオフをもたらす。
ここでは、系統的な多段階解析を通じて、これらの相互接続問題に対処する。
FLフレームワークは循環器のリスク予測のために実装され、最初の実験では、標準手法が不均衡なデータに苦しむことが示され、結果としてゼロがリコールされた。
このような制限を克服するために、我々はまずハイブリッドのSynthetic Minority Over-Sampling TechniqueとTomek Links (SMOTETomek)をクライアントレベルで統合し、臨床的に有用なモデルの開発に成功した。
その後、このフレームワークは調整されたFedProxアルゴリズムを用いて非IIDデータに最適化された。
最終結果は、プライバシー予算(エプシロン)とモデルリコールの明確な非直線的なトレードオフを明らかにし、最適化されたFedProxは標準のFedAvgを一貫して上回っている。
エプシロン9.0を含む)強力なプライバシー保証が、高い臨床的ユーティリティ(77%以上のリコール)を維持しながら達成できる、プライバシーユーティリティフロンティア上で最適な運用領域が特定された。
最終的に、我々の研究は、実世界の異質な医療データに適用可能な、効果的でセキュアで正確な診断ツールを作成するための実践的な方法論の青写真を提供する。
関連論文リスト
- Inclusive, Differentially Private Federated Learning for Clinical Data [0.45034038207097465]
Federated Learning(FL)は、センシティブな患者データを集中化せずに、臨床AIモデルをトレーニングするための有望なアプローチを提供する。
実際の採用は、プライバシやリソース制約、コンプライアンスに関する課題によって妨げられています。
本稿では,定量的クライアントコンプライアンススコアに基づいて適応的にノイズを調整することでDPを向上する新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-28T08:36:21Z) - Differentially Private Distributed Inference [2.4401219403555814]
臨床試験に協力する医療センターは、知識共有と機密データ保護のバランスを取る必要がある。
情報漏洩を制御するために差分プライバシー(DP)を用いてこの問題に対処する。
エージェントはログリニアルールを通じて信条統計を更新し、DPノイズは信頼性の高い識別性と厳格な性能保証を提供する。
論文 参考訳(メタデータ) (2024-02-13T01:38:01Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Data-Free Distillation Improves Efficiency and Privacy in Federated
Thorax Disease Analysis [11.412151951949102]
大規模、多中心、マルチスキャナ設定における胸部疾患の解析は、厳格なプライバシーポリシーによって制限されることが多い。
我々は,データフリー蒸留に基づくFLアプローチであるFedKDFを紹介する。
FedKDFでは、サーバは軽量なジェネレータを使用して、プライベートデータやプロキシデータセットへのアクセスを必要とせずに、異なるクライアントからの知識を集約する。
論文 参考訳(メタデータ) (2023-10-22T18:27:35Z) - Federated Offline Reinforcement Learning [55.326673977320574]
マルチサイトマルコフ決定プロセスモデルを提案する。
我々は,オフラインRLを対象とした最初のフェデレーション最適化アルゴリズムを設計する。
提案アルゴリズムでは,学習ポリシーの準最適性は,データが分散していないような速度に匹敵する,理論的保証を与える。
論文 参考訳(メタデータ) (2022-06-11T18:03:26Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - FLOP: Federated Learning on Medical Datasets using Partial Networks [84.54663831520853]
新型コロナウイルスの感染拡大で医療資源が不足している。
新型コロナウイルスの診断を緩和するために、さまざまなデータ駆動型ディープラーニングモデルが開発されている。
患者のプライバシー上の懸念から、データそのものはまだ乏しい。
我々は、textbfPartial Networks (FLOP) を用いた、シンプルで効果的な textbfFederated textbfL textbfon Medical データセットを提案する。
論文 参考訳(メタデータ) (2021-02-10T01:56:58Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。