論文の概要: CFL-SparseMed: Communication-Efficient Federated Learning for Medical Imaging with Top-k Sparse Updates
- arxiv url: http://arxiv.org/abs/2510.24776v1
- Date: Sat, 25 Oct 2025 09:13:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.484109
- Title: CFL-SparseMed: Communication-Efficient Federated Learning for Medical Imaging with Top-k Sparse Updates
- Title(参考訳): CFL-SparseMed:Top-k Sparse Updatesを用いた医用イメージングのためのコミュニケーション効率の良いフェデレーションラーニング
- Authors: Gousia Habib, Aniket Bhardwaj, Ritvik Sharma, Shoeib Amin Banday, Ishfaq Ahmad Malik,
- Abstract要約: フェデレートラーニング(FL)は、プライバシー保護のためのコラボレーションを可能にするが、不均一で非IIDデータと高い通信コストに苦慮する。
トップk勾配のみを送信することで通信オーバーヘッドを低減するためにトップkスペーシフィケーションを用いたFLアプローチである textbfCFL-SparseMed を提案する。
- 参考スコア(独自算出の注目度): 0.11630611994349026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Secure and reliable medical image classification is crucial for effective patient treatment, but centralized models face challenges due to data and privacy concerns. Federated Learning (FL) enables privacy-preserving collaborations but struggles with heterogeneous, non-IID data and high communication costs, especially in large networks. We propose \textbf{CFL-SparseMed}, an FL approach that uses Top-k Sparsification to reduce communication overhead by transmitting only the top k gradients. This unified solution effectively addresses data heterogeneity while maintaining model accuracy. It enhances FL efficiency, preserves privacy, and improves diagnostic accuracy and patient care in non-IID medical imaging settings. The reproducibility source code is available on \href{https://github.com/Aniket2241/APK_contruct}{Github}.
- Abstract(参考訳): セキュアで信頼性の高い医用画像分類は、効果的な患者治療には不可欠だが、集中型モデルは、データとプライバシの懸念による課題に直面している。
フェデレートラーニング(FL)は、プライバシー保護のためのコラボレーションを可能にするが、特に大規模ネットワークにおいて、不均一で非IIDデータと高い通信コストに苦しむ。
そこで本稿では,トップk勾配のみを伝送することで通信オーバーヘッドを低減するためにTop-k Sparsificationを用いたFLアプローチである‘textbf{CFL-SparseMed}を提案する。
この統一されたソリューションは、モデルの精度を維持しながら、データの不均一性に効果的に対処する。
FL効率を高め、プライバシーを保ち、非IID医療画像設定における診断精度と患者のケアを改善する。
再現性のあるソースコードは \href{https://github.com/Aniket2241/APK_contruct}{Github} で公開されている。
関連論文リスト
- CEPerFed: Communication-Efficient Personalized Federated Learning for Multi-Pulse MRI Classification [9.643088951062065]
マルチパルスMRI分類のための頑健なモデルをトレーニングするには、様々な医療機関からの大規模かつ多様なデータが必要である。
通信効率の高いパーソナライズされたFL手法CEPerFedを提案する。
CEPerFed法の有効性を示す5つの分類課題の実験を行った。
論文 参考訳(メタデータ) (2025-10-20T14:34:16Z) - FedGS: Federated Gradient Scaling for Heterogeneous Medical Image Segmentation [0.4499833362998489]
そこで本研究では,FedGSという新しいFLアグリゲーション手法を提案する。
FedGSは、特に小さな病変に対して、PolypGenとLiTSデータセット間で、FedAvgよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-08-21T15:26:21Z) - MedLeak: Multimodal Medical Data Leakage in Secure Federated Learning with Crafted Models [20.884070284666105]
フェデレーション・ラーニング(FL)は、参加者がデータをローカルに保ちながら、機械学習モデルを協調的にトレーニングすることを可能にする。
我々は、悪意のあるFLサーバが高品質なサイト固有の医療データを復元できる、MedLeakと呼ばれる新しいプライバシ攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-13T18:31:35Z) - Communication-Efficient Hybrid Federated Learning for E-health with Horizontal and Vertical Data Partitioning [67.49221252724229]
E-Healthは、スマートデバイスや医療機関が患者のデータを共同で収集することを可能にする。
eヘルスにフェデレートされた学習を適用することは、多くの課題に直面します。
医療データは水平および垂直に分割される。
HFLとVFLの単純な組み合わせには、訓練効率の低下、難聴収束分析、パラメータチューニング戦略の欠如など、制限がある。
論文 参考訳(メタデータ) (2024-04-15T19:45:07Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - Distributed Contrastive Learning for Medical Image Segmentation [16.3860181959878]
監視されたディープラーニングは、高いパフォーマンスを達成するために大量のラベル付きデータを必要とします。
医用画像解析では、各サイトは限られた量のデータとラベルしか持たず、学習を効果的にしない。
アノテーションを限定した医用画像セグメンテーションのための2つのフェデレーション型自己教師型学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-07T20:47:05Z) - Closing the Generalization Gap of Cross-silo Federated Medical Image
Segmentation [66.44449514373746]
クロスサイロ・フェデレーション・ラーニング (FL) は近年, 深層学習による医用画像解析において注目されている。
FLでトレーニングされたモデルと、集中的なトレーニングでトレーニングされたモデルの間にはギャップがある。
本稿では,クライアントの問題を回避し,ドリフトギャップを解消するための新しいトレーニングフレームワークであるFedSMを提案する。
論文 参考訳(メタデータ) (2022-03-18T19:50:07Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Federated Semi-supervised Medical Image Classification via Inter-client
Relation Matching [58.26619456972598]
フェデレートラーニング(FL)は、ディープ・ネットワークのトレーニングのために、分散医療機関とのコラボレーションで人気が高まっている。
本報告では,実践的かつ困難なFL問題であるtextitFederated Semi-supervised Learning (FSSL)について検討する。
本稿では, 従来の整合性正規化機構を改良し, クライアント間関係マッチング方式を提案する。
論文 参考訳(メタデータ) (2021-06-16T07:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。