論文の概要: FedSDA: Federated Stain Distribution Alignment for Non-IID Histopathological Image Classification
- arxiv url: http://arxiv.org/abs/2511.12044v1
- Date: Sat, 15 Nov 2025 05:40:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.53028
- Title: FedSDA: Federated Stain Distribution Alignment for Non-IID Histopathological Image Classification
- Title(参考訳): 非IID組織像分類のためのFederated Stin Distribution Asignment
- Authors: Cheng-Chang Tsai, Kai-Wen Cheng, Chun-Shien Lu,
- Abstract要約: フェデレートラーニング(FL)は、分散データリソース間のモデルを協調的にトレーニングすることに成功している。
近年の進歩にもかかわらず、非IID(非独立で同一の分散)データはFLの使用を妨げる必然的な課題となる。
- 参考スコア(独自算出の注目度): 8.816661186337784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has shown success in collaboratively training a model among decentralized data resources without directly sharing privacy-sensitive training data. Despite recent advances, non-IID (non-independent and identically distributed) data poses an inevitable challenge that hinders the use of FL. In this work, we address the issue of non-IID histopathological images with feature distribution shifts from an intuitive perspective that has only received limited attention. Specifically, we address this issue from the perspective of data distribution by solely adjusting the data distributions of all clients. Building on the success of diffusion models in fitting data distributions and leveraging stain separation to extract the pivotal features that are closely related to the non-IID properties of histopathological images, we propose a Federated Stain Distribution Alignment (FedSDA) method. FedSDA aligns the stain distribution of each client with a target distribution in an FL framework to mitigate distribution shifts among clients. Furthermore, considering that training diffusion models on raw data in FL has been shown to be susceptible to privacy leakage risks, we circumvent this problem while still effectively achieving alignment. Extensive experimental results show that FedSDA is not only effective in improving baselines that focus on mitigating disparities across clients' model updates but also outperforms baselines that address the non-IID data issues from the perspective of data distribution. We show that FedSDA provides valuable and practical insights for the computational pathology community.
- Abstract(参考訳): フェデレートラーニング(FL)は、プライバシに敏感なトレーニングデータを直接共有することなく、分散データリソース間のモデルを協調的にトレーニングすることに成功した。
近年の進歩にもかかわらず、非IID(非独立で同一の分散)データはFLの使用を妨げる必然的な課題となる。
本研究は,非IID病理像の直観的視点から特徴分布のシフトを伴う問題点に対処するものである。
具体的には、全クライアントのデータ分散を単に調整することで、データ分散の観点からこの問題に対処する。
組織像の非IID特性と密接な関係を持つ重要な特徴を抽出するために, データ分布のフィッティングや染色分離を利用した拡散モデルの成功に基づいて, フェデレートステン分布アライメント法(FedSDA)を提案する。
FedSDAは、クライアント間の分散シフトを軽減するために、各クライアントの染色分布とFLフレームワーク内のターゲット分布を調整します。
さらに、FLにおける生データに対するトレーニング拡散モデルが、プライバシー漏洩のリスクの影響を受けやすいことが示されていることを考えると、アライメントを効果的に達成しつつ、この問題を回避することができる。
大規模な実験結果から、FedSDAは、クライアントのモデル更新間の格差を軽減することに焦点を当てたベースラインの改善に有効であるだけでなく、データ分散の観点から、非IIDデータ問題に対処するベースラインよりも優れていることが示された。
我々は、FedSDAが、計算病理学のコミュニティに有意義で実践的な洞察を提供することを示す。
関連論文リスト
- Federated Learning with Sample-level Client Drift Mitigation [15.248811557566128]
Federated Learningは、クライアント間のデータの不均一性によって、パフォーマンスが大幅に低下する。
本稿では,まず不均一性問題をサンプルレベルで緩和するFedBSSを提案する。
また,特徴分布とノイズラベルデータセット設定の効果的な結果を得た。
論文 参考訳(メタデータ) (2025-01-20T09:44:07Z) - Disentangling data distribution for Federated Learning [20.524108508314107]
フェデレートラーニング(FL)は、分散クライアントが所有するプライベートデータによってパフォーマンスが向上するグローバルモデルの協調トレーニングを促進する。
しかし、FLの幅広い適用性は、異なるクライアント間のデータ分散の絡み合いによって妨げられている。
本稿では,FLがデータ分散を解き放つことによって,分散システムに匹敵する効率を原理的に達成できることを初めて示す。
論文 参考訳(メタデータ) (2024-10-16T13:10:04Z) - Stable Diffusion-based Data Augmentation for Federated Learning with Non-IID Data [9.045647166114916]
フェデレートラーニング(FL)は、分散的かつ協調的なモデルトレーニングのための有望なパラダイムである。
FLは、非独立分散(Non-IID)データ分散に直面すると、パフォーマンスの大幅な低下と収束性の低下に悩まされる。
我々は、最先端のテキスト・ツー・イメージ基盤モデルの強力な能力を活用する新しいアプローチであるGen-FedSDを紹介する。
論文 参考訳(メタデータ) (2024-05-13T16:57:48Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - The Impact of Data Distribution on Fairness and Robustness in Federated
Learning [7.209240273742224]
Federated Learning(FL)は、エージェントの集合がデータセットを共有することなく、協調的にモデルをトレーニングできる分散機械学習プロトコルである。
本研究では、局所的なデータ分布の変化が、訓練されたモデルの公平性と特性にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2021-11-29T22:04:50Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Global Distance-distributions Separation for Unsupervised Person
Re-identification [93.39253443415392]
既存の教師なしのReIDアプローチは、距離ベースのマッチング/ランク付けを通じて正のサンプルと負のサンプルを正しく識別するのに失敗することが多い。
本研究では,2つの分布に対する大域的距離分布分離の制約を導入し,大域的視点から正と負のサンプルを明確に分離することを奨励する。
本研究では,本手法がベースラインを大幅に改善し,最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2020-06-01T07:05:39Z) - Mind the Trade-off: Debiasing NLU Models without Degrading the
In-distribution Performance [70.31427277842239]
信頼性正則化という新しいデバイアス化手法を導入する。
モデルがバイアスを悪用するのを防ぐと同時に、トレーニングのすべての例から学ぶのに十分なインセンティブを得られるようにします。
提案手法を3つのNLUタスクで評価し,前者とは対照的に,アウト・オブ・ディストリビューション・データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-01T11:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。