論文の概要: Fair Federated Medical Image Classification Against Quality Shift via Inter-Client Progressive State Matching
- arxiv url: http://arxiv.org/abs/2503.09587v1
- Date: Wed, 12 Mar 2025 17:56:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:36:53.548334
- Title: Fair Federated Medical Image Classification Against Quality Shift via Inter-Client Progressive State Matching
- Title(参考訳): クライアント間プログレッシブな状態マッチングによる品質変化に対する公正な医用画像分類
- Authors: Nannan Wu, Zhuo Kuang, Zengqiang Yan, Ping Wang, Li Yu,
- Abstract要約: 本研究では, 単一状態に基づく公正性は, テスト中の公正性に対する適切な代名詞ではない,と論じる。
本稿では,複数の状態を用いて,探索距離の異なるシャープネスや摂動損失を算出し,収束度を評価することを提案する。
次にローカルトレーニングとグローバルアグリゲーションに2つのコンポーネントを組み込んで、各状態に対するクロスクライアントフェアネスを確保します。
- 参考スコア(独自算出の注目度): 12.832015042020844
- License:
- Abstract: Despite the potential of federated learning in medical applications, inconsistent imaging quality across institutions-stemming from lower-quality data from a minority of clients-biases federated models toward more common high-quality images. This raises significant fairness concerns. Existing fair federated learning methods have demonstrated some effectiveness in solving this problem by aligning a single 0th- or 1st-order state of convergence (e.g., training loss or sharpness). However, we argue in this work that fairness based on such a single state is still not an adequate surrogate for fairness during testing, as these single metrics fail to fully capture the convergence characteristics, making them suboptimal for guiding fair learning. To address this limitation, we develop a generalized framework. Specifically, we propose assessing convergence using multiple states, defined as sharpness or perturbed loss computed at varying search distances. Building on this comprehensive assessment, we propose promoting fairness for these states across clients to achieve our ultimate fairness objective. This is accomplished through the proposed method, FedISM+. In FedISM+, the search distance evolves over time, progressively focusing on different states. We then incorporate two components in local training and global aggregation to ensure cross-client fairness for each state. This gradually makes convergence equitable for all states, thereby improving fairness during testing. Our empirical evaluations, performed on the well-known RSNA ICH and ISIC 2019 datasets, demonstrate the superiority of FedISM+ over existing state-of-the-art methods for fair federated learning. The code is available at https://github.com/wnn2000/FFL4MIA.
- Abstract(参考訳): 医療応用におけるフェデレートラーニングの可能性にもかかわらず、少数のクライアント・ビーズ・フェデレーション・モデルの低品質データから、より一般的な高品質な画像へと、機関間での一貫性のない画像品質が評価された。
これにより、かなりの公平さが懸念される。
既存の公正なフェデレーション学習手法は,1次収束状態(トレーニング損失やシャープネスなど)を1次あるいは1次収束状態に整列させることにより,この問題の解決にいくつかの効果を示した。
しかし、この研究では、これらの単一のメトリクスが収束特性を完全に把握できず、公正学習を導くのに最適ではないため、そのような単一状態に基づく公平さは、テスト期間中の公正性の適切なサロゲートではない、と論じる。
この制限に対処するため、一般化されたフレームワークを開発する。
具体的には,異なる探索距離で計算されるシャープネスや摂動損失として定義される複数の状態を用いて収束を評価することを提案する。
この包括的評価に基づいて、最終的な公正化目標を達成するために、クライアント間でこれらの状態に対する公平性を促進することを提案する。
これは提案手法であるFedISM+によって実現される。
FedISM+では、検索距離は時間とともに進化し、異なる状態に着目する。
次にローカルトレーニングとグローバルアグリゲーションに2つのコンポーネントを組み込んで、各状態に対するクロスクライアントフェアネスを確保します。
これにより、全ての状態に対する収束は徐々に等しくなり、テスト中の公正さが向上する。
RSNA ICHとISIC 2019データセットを用いて実施した実験的な評価は、公正なフェデレーション学習のための既存の最先端手法よりもFedISM+の方が優れていることを示す。
コードはhttps://github.com/wnn2000/FFL4MIAで公開されている。
関連論文リスト
- Federated Fairness Analytics: Quantifying Fairness in Federated Learning [2.9674793945631097]
Federated Learning(FL)は、分散MLのためのプライバシ強化技術である。
FLは古典的なMLから公平性の問題を受け継ぎ、新しいものを導入している。
公正度を測定するための方法論であるフェデレートフェアネス分析を提案する。
論文 参考訳(メタデータ) (2024-08-15T15:23:32Z) - From Optimization to Generalization: Fair Federated Learning against Quality Shift via Inter-Client Sharpness Matching [10.736121438623003]
フェデレートラーニングは、分散化された医療データでディープニューラルネットワークをトレーニングするための重要なアプローチとして認識されている。
実際には、様々な施設で一貫した画像品質を確保することは困難である。
この画像品質の不均衡は、フェデレートされたモデルが高品質な画像に対して固有のバイアスを生じさせる可能性がある。
論文 参考訳(メタデータ) (2024-04-27T07:05:41Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Fairness-enhancing mixed effects deep learning improves fairness on in- and out-of-distribution clustered (non-iid) data [6.596656267996196]
フェア・ミックスド・エフェクト・ディープ・ラーニング(Fair MEDL)フレームワークを提案する。
本フレームワークは,1)不変なFEを学習するためのクラスタ逆効果,2)REのためのベイズニューラルネットワーク,3)最終的な予測のためにFEとREを組み合わせた混合関数,を通じて,クラスタ不変な固定効果(FE)とクラスタ固有ランダムエフェクト(RE)を定量化する。
公正なMEDLフレームワークは、年齢で86.4%、人種で64.9%、性で57.8%、結婚で36.2%の公正性を向上し、堅牢な予測性能を維持している。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - FedVal: Different good or different bad in federated learning [9.558549875692808]
フェデレート・ラーニング(FL)システムは悪意のあるアクターからの攻撃を受けやすい。
FLは、異なる人口集団の公正なパフォーマンスを保証するなど、グループの偏見に対処する上で、新たな課題を提起する。
このようなバイアスに対処するために使用される従来の方法は、FLシステムが持っていないデータへの集中的なアクセスを必要とする。
我々は、クライアントからの追加情報を必要としない堅牢性と公正性の両方に対して、新しいアプローチであるFedValを提案する。
論文 参考訳(メタデータ) (2023-06-06T22:11:13Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - FedMed-GAN: Federated Domain Translation on Unsupervised Cross-Modality
Brain Image Synthesis [55.939957482776194]
我々は、教師なし脳画像合成におけるフェデレートドメイン翻訳のための新しいベンチマーク(FedMed-GAN)を提案する。
FedMed-GANは発電機の性能を犠牲にすることなくモード崩壊を緩和する。
FedMed-GANと他の集中型手法を比較するための総合的な評価を提供する。
論文 参考訳(メタデータ) (2022-01-22T02:50:29Z) - Fairness-aware Agnostic Federated Learning [47.26747955026486]
我々は、未知のテスト分布の課題に対処するために、公正に意識しない連邦学習フレームワーク(AgnosticFair)を開発した。
我々はカーネルリライジング関数を用いて、損失関数と公正制約の両方において各トレーニングサンプルにリライジング値を割り当てる。
構築されたモデルは、ローカルデータ配信の公平性を保証するため、ローカルサイトに直接適用することができる。
論文 参考訳(メタデータ) (2020-10-10T17:58:20Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。