論文の概要: FedDAPL: Toward Client-Private Generalization in Federated Learning
- arxiv url: http://arxiv.org/abs/2509.23688v1
- Date: Sun, 28 Sep 2025 07:01:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.379723
- Title: FedDAPL: Toward Client-Private Generalization in Federated Learning
- Title(参考訳): FedDAPL:フェデレートラーニングにおけるクライアント指向の一般化を目指して
- Authors: Soroosh Safari Loaliyan, Jose-Luis Ambite, Paul M. Thompson, Neda Jahanshad, Greg Ver Steeg,
- Abstract要約: フェデレーテッド・ラーニング(FL)は、各研究センターまたはクリニックでモデルをローカルに訓練し、モデル更新のみを集約する。
ハードウェアや取得プロトコルの非生物学的なバリエーションは、外部のサイトでモデルが失敗する可能性がある。
本稿では,FLプロセス内にDANN(Domain-Adversarial Neural Network)を組み込むことで,これらの課題に対処する。
- 参考スコア(独自算出の注目度): 14.449504643780834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) trains models locally at each research center or clinic and aggregates only model updates, making it a natural fit for medical imaging, where strict privacy laws forbid raw data sharing. A major obstacle is scanner-induced domain shift: non-biological variations in hardware or acquisition protocols can cause models to fail on external sites. Most harmonization methods correct this shift by directly comparing data across sites, conflicting with FL's privacy constraints. Domain Generalization (DG) offers a privacy-friendly alternative - learning site-invariant representations without sharing raw data - but standard DG pipelines still assume centralized access to multi-site data, again violating FL's guarantees. This paper meets these difficulties with a straightforward integration of a Domain-Adversarial Neural Network (DANN) within the FL process. After demonstrating that a naive federated DANN fails to converge, we propose a proximal regularization method that stabilizes adversarial training among clients. Experiments on T1-weighted 3-D brain MRIs from the OpenBHB dataset, performing brain-age prediction on participants aged 6-64 y (mean 22+/-6 y; 45 percent male) in training and 6-79 y (mean 19+/-13 y; 55 percent male) in validation, show that training on 15 sites and testing on 19 unseen sites yields superior cross-site generalization over FedAvg and ERM while preserving data privacy.
- Abstract(参考訳): Federated Learning(FL)は、各研究センターまたはクリニックでモデルをローカルにトレーニングし、モデルのアップデートのみを集約する。
ハードウェアや取得プロトコルの非生物学的なバリエーションは、外部のサイトでモデルが失敗する可能性がある。
ほとんどの調和法は、FLのプライバシー制約に反し、サイト間でデータを直接比較することで、このシフトを補正する。
ドメイン一般化(DG)は、プライバシフレンドリな代替手段 – 生データを共有せずにサイト不変表現を学習する – を提供するが、標準的なDGパイプラインは、依然としてマルチサイトデータへの集中的なアクセスを前提としており、FLの保証に違反している。
本稿では,FLプロセス内にDANN(Domain-Adversarial Neural Network)を組み込むことで,これらの課題に対処する。
本稿では, DANN が収束しないことを示す上で, クライアント間の対角トレーニングを安定化する近似正則化手法を提案する。
OpenBHBデータセットから得られたT1強調3D脳MRIの実験では、トレーニング中の6-64 y (平均22+/6 y; 45%の男性)とバリデーション中の6-79 y (平均19+/13 y; 55%の男性)で脳年齢予測を行い、15のサイトでのトレーニングと19の未確認サイトのテストは、データプライバシーを維持しながらFedAvgとERMよりも優れたクロスサイト一般化をもたらすことを示した。
関連論文リスト
- Decentralized Gossip Mutual Learning (GML) for brain tumor segmentation
on multi-parametric MRI [0.7402598986326535]
フェデレートラーニング(FL)は、プライベートデータを共有せずに、医療センター間で協調的なモデルトレーニングを可能にする。
Gossip Mutual Learning (GML) は,Gossip Protocol を用いてピアツーピア通信を行う分散フレームワークである。
論文 参考訳(メタデータ) (2024-01-27T15:05:25Z) - Decentralized Gossip Mutual Learning (GML) for automatic head and neck
tumor segmentation [0.7402598986326535]
フェデレートラーニング(FL)は、データ共有を必要とせずに、異なる医療センターから複雑な機械学習モデルを協調的にトレーニングするための有望な戦略として登場した。
我々は,Gossipプロトコルをピアツーピア通信に直接適用した分散協調学習フレームワークであるGossip Mutual Learning (GML)を提案する。
GMLはDice similarity Coefficient (DSC) を3.2%, 4.6%, 10.4%改善できることを示した。
論文 参考訳(メタデータ) (2024-01-11T01:04:30Z) - Think Twice Before Selection: Federated Evidential Active Learning for Medical Image Analysis with Domain Shifts [11.562953837452126]
多様なドメインから得られたローカルデータの情報性を評価するための最初の試みを行う。
本稿では,ドメインシフト下でのデータ評価を校正する新しい手法であるFederated Evidential Active Learning(FEAL)を提案する。
論文 参考訳(メタデータ) (2023-12-05T08:32:27Z) - Vicinal Feature Statistics Augmentation for Federated 3D Medical Volume
Segmentation [17.096806029281385]
FL(Federated Learning)は、複数のクライアント医療機関が、プライバシー保護を備えたディープラーニング(DL)モデルを共同でトレーニングすることを可能にする。
しかし、FLの性能は、小さな機関におけるラベル付きデータの限られた可用性と、機関間での不均一な(すなわち非i.d.)データ分散によって制限される。
我々は,局所的な特徴シフトを効果的に緩和し,プライバシーに配慮したFLセグメンテーションのための協調トレーニングを容易にするために,ビジナルな特徴レベルデータ拡張手法を開発した。
論文 参考訳(メタデータ) (2023-10-23T21:14:52Z) - FedDAR: Federated Domain-Aware Representation Learning [14.174833360938806]
クロスサイロ・フェデレーション・ラーニング(FL)は、医療のための機械学習アプリケーションにおいて有望なツールとなっている。
本稿では,ドメイン共有表現とドメインワイド・パーソナライズされた予測ヘッドを学習する新しい手法であるFedDARを提案する。
論文 参考訳(メタデータ) (2022-09-08T19:18:59Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - FedMed-GAN: Federated Domain Translation on Unsupervised Cross-Modality
Brain Image Synthesis [55.939957482776194]
我々は、教師なし脳画像合成におけるフェデレートドメイン翻訳のための新しいベンチマーク(FedMed-GAN)を提案する。
FedMed-GANは発電機の性能を犠牲にすることなくモード崩壊を緩和する。
FedMed-GANと他の集中型手法を比較するための総合的な評価を提供する。
論文 参考訳(メタデータ) (2022-01-22T02:50:29Z) - FedDG: Federated Domain Generalization on Medical Image Segmentation via
Episodic Learning in Continuous Frequency Space [63.43592895652803]
フェデレーションラーニングは、分散医療機関がプライバシ保護を備えた共有予測モデルを共同で学習することを可能にします。
臨床展開では、連合学習で訓練されたモデルは、連邦外の完全に見えない病院に適用された場合、パフォーマンス低下に苦しむ可能性がある。
そこで本研究では,この問題に対してELCFS(Episodic Learning in Continuous frequency Space)と呼ばれる新しいアプローチを提案する。
本手法の有効性は,2つの医用画像分割作業における最先端および深部アブレーション実験よりも優れていた。
論文 参考訳(メタデータ) (2021-03-10T13:05:23Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。