論文の概要: MedHE: Communication-Efficient Privacy-Preserving Federated Learning with Adaptive Gradient Sparsification for Healthcare
- arxiv url: http://arxiv.org/abs/2511.09043v1
- Date: Thu, 13 Nov 2025 01:27:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.374373
- Title: MedHE: Communication-Efficient Privacy-Preserving Federated Learning with Adaptive Gradient Sparsification for Healthcare
- Title(参考訳): MedHE: 医療に適応したグラディエントスカラー化によるコミュニケーション効率の良いプライバシ保護フェデレーションラーニング
- Authors: Farjana Yesmin,
- Abstract要約: 本稿では,適応勾配スペーシフィケーションとCKKSの同型暗号化を組み合わせた新しいフレームワークであるMedHEについて述べる。
提案手法では, モデルユーティリティを保ちながら, 97.5パーセントの通信削減を実現し, エラー補償を施した動的しきい値機構を導入している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Healthcare federated learning requires strong privacy guarantees while maintaining computational efficiency across resource-constrained medical institutions. This paper presents MedHE, a novel framework combining adaptive gradient sparsification with CKKS homomorphic encryption to enable privacy-preserving collaborative learning on sensitive medical data. Our approach introduces a dynamic threshold mechanism with error compensation for top-k gradient selection, achieving 97.5 percent communication reduction while preserving model utility. We provide formal security analysis under Ring Learning with Errors assumptions and demonstrate differential privacy guarantees with epsilon less than or equal to 1.0. Statistical testing across 5 independent trials shows MedHE achieves 89.5 percent plus or minus 0.8 percent accuracy, maintaining comparable performance to standard federated learning (p=0.32) while reducing communication from 1277 MB to 32 MB per training round. Comprehensive evaluation demonstrates practical feasibility for real-world medical deployments with HIPAA compliance and scalability to 100 plus institutions.
- Abstract(参考訳): 医療連合学習は、リソースに制限された医療機関間での計算効率を維持しながら、強力なプライバシー保証を必要とする。
本稿では,適応勾配スペーシフィケーションとCKKSの同型暗号化を組み合わせた新しいフレームワークであるMedHEについて述べる。
提案手法では, モデルユーティリティを保ちながら, 97.5パーセントの通信削減を実現し, エラー補償を施した動的しきい値機構を導入している。
我々は、誤りを仮定したリングラーニングの下で正式なセキュリティ分析を行い、エプシロンが1.0以下である場合の差分プライバシー保証を実証する。
5つの独立した試験における統計的テストでは、MedHEは89.5%プラス、または0.8%の精度を達成し、標準的な連邦学習(p=0.32)と同等の性能を維持し、訓練ラウンドあたり1277MBから32MBまで通信を減らしている。
包括的評価は、HIPAA準拠と100以上の機関への拡張性を備えた現実的な医療展開の実現可能性を示している。
関連論文リスト
- A Hybrid Machine Learning Approach for Synthetic Data Generation with Post Hoc Calibration for Clinical Tabular Datasets [0.9940728137241215]
医療研究と開発は、データ不足と厳格なプライバシー規制のために重大な障害に直面している。
患者プライバシを保護しながら、実際のデータ統計をエミュレートする人工データセットを作成します。
このスケーラブルでプライバシ保護のアプローチは、最先端の手法と一致し、医療における共同配布の忠実性のための新しいベンチマークを設定します。
論文 参考訳(メタデータ) (2025-10-12T09:23:43Z) - Beyond Static Knowledge Messengers: Towards Adaptive, Fair, and Scalable Federated Learning for Medical AI [0.0]
適応フェアフェデレートラーニング(AFFL)を3つの革新を通じて提案する。
その結果,55~75%の通信削減,56~68%の公正性向上,34~46%の省エネルギー,100以上の機関支援が得られた。
経済予測では、農村病院では400-800%のROI、学術センターでは15-25%のパフォーマンス向上を示している。
論文 参考訳(メタデータ) (2025-10-05T03:07:57Z) - A Robust Pipeline for Differentially Private Federated Learning on Imbalanced Clinical Data using SMOTETomek and FedProx [0.0]
Federated Learning (FL)は、共同健康研究のための画期的なアプローチである。
FLは、差分プライバシー(DP)と組み合わせて正式なセキュリティ保証を提供する
プライバシーユーティリティフロンティアで最適な運用領域が特定された。
論文 参考訳(メタデータ) (2025-08-06T20:47:50Z) - Beyond Benchmarks: Dynamic, Automatic And Systematic Red-Teaming Agents For Trustworthy Medical Language Models [87.66870367661342]
大規模言語モデル(LLM)は、医療におけるAIアプリケーションで使用される。
LLMを継続的にストレステストするレッドチームフレームワークは、4つのセーフティクリティカルなドメインで重大な弱点を明らかにすることができる。
敵エージェントのスイートは、自律的に変化するテストケースに適用され、安全でないトリガー戦略を特定し、評価する。
私たちのフレームワークは、進化可能でスケーラブルで信頼性の高い、次世代の医療AIのセーフガードを提供します。
論文 参考訳(メタデータ) (2025-07-30T08:44:22Z) - Improving Multiple Sclerosis Lesion Segmentation Across Clinical Sites:
A Federated Learning Approach with Noise-Resilient Training [75.40980802817349]
深層学習モデルは、自動的にMS病変を分節する約束を示しているが、正確な注釈付きデータの不足は、この分野の進歩を妨げている。
我々は,MS病変の不均衡分布とファジィ境界を考慮したDecoupled Hard Label Correction(DHLC)戦略を導入する。
また,集約型中央モデルを利用したCELC(Centrally Enhanced Label Correction)戦略も導入した。
論文 参考訳(メタデータ) (2023-08-31T00:36:10Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Self-supervised contrastive learning of echocardiogram videos enables
label-efficient cardiac disease diagnosis [48.64462717254158]
心エコービデオを用いた自己教師型コントラスト学習手法であるエコーCLRを開発した。
左室肥大症 (LVH) と大動脈狭窄症 (AS) の分類成績は,EchoCLR の訓練により有意に改善した。
EchoCLRは、医療ビデオの表現を学習する能力に特有であり、SSLがラベル付きデータセットからラベル効率の高い疾患分類を可能にすることを実証している。
論文 参考訳(メタデータ) (2022-07-23T19:17:26Z) - Dynamic Bank Learning for Semi-supervised Federated Image Diagnosis with
Class Imbalance [65.61909544178603]
クラス不均衡半教師付きFL(imFed-Semi)の実用的かつ困難な問題について検討する。
このImFed-Semi問題は、クラス比例情報を利用してクライアントトレーニングを改善する新しい動的銀行学習方式によって解決される。
25,000個のCTスライスによる頭蓋内出血診断と10,015個の皮膚内視鏡画像による皮膚病変診断の2つの公開実世界の医療データセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-06-27T06:51:48Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。