論文の概要: Reward Systems for Trustworthy Medical Federated Learning
- arxiv url: http://arxiv.org/abs/2205.00470v2
- Date: Tue, 2 May 2023 19:27:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 18:59:22.061450
- Title: Reward Systems for Trustworthy Medical Federated Learning
- Title(参考訳): 信頼できる医療連帯学習のための報酬システム
- Authors: Konstantin D. Pandl, Florian Leiser, Scott Thiebes, Ali Sunyaev
- Abstract要約: フェデレーテッド・ラーニング(FL)は、機械学習(ML)モデルを医療用にトレーニングする研究者や実践家から高い関心を集めている。
本稿では,医療用FLにおける偏見の程度と,報酬システムによる過度の偏見の防止方法について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Federated learning (FL) has received high interest from researchers and
practitioners to train machine learning (ML) models for healthcare. Ensuring
the trustworthiness of these models is essential. Especially bias, defined as a
disparity in the model's predictive performance across different subgroups, may
cause unfairness against specific subgroups, which is an undesired phenomenon
for trustworthy ML models. In this research, we address the question to which
extent bias occurs in medical FL and how to prevent excessive bias through
reward systems. We first evaluate how to measure the contributions of
institutions toward predictive performance and bias in cross-silo medical FL
with a Shapley value approximation method. In a second step, we design
different reward systems incentivizing contributions toward high predictive
performance or low bias. We then propose a combined reward system that
incentivizes contributions toward both. We evaluate our work using multiple
medical chest X-ray datasets focusing on patient subgroups defined by patient
sex and age. Our results show that we can successfully measure contributions
toward bias, and an integrated reward system successfully incentivizes
contributions toward a well-performing model with low bias. While the
partitioning of scans only slightly influences the overall bias, institutions
with data predominantly from one subgroup introduce a favorable bias for this
subgroup. Our results indicate that reward systems, which focus on predictive
performance only, can transfer model bias against patients to an institutional
level. Our work helps researchers and practitioners design reward systems for
FL with well-aligned incentives for trustworthy ML.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、機械学習(ML)モデルを医療用にトレーニングする研究者や実践家から高い関心を集めている。
これらのモデルの信頼性を確保することは不可欠です。
特に、モデルの予測性能の格差として定義されるバイアスは、信頼に値するMLモデルにとって望ましくない現象である特定のサブグループに対して不公平を引き起こす可能性がある。
本研究では,医療flにおけるバイアスの程度と,報酬システムによる過度のバイアスの防止方法について考察する。
まず,Shapley値近似法を用いて,クロスサイロ医療FLの予測性能とバイアスに対する機関の貢献度を評価する方法について検討した。
第2のステップでは、高い予測性能や低いバイアスに対する貢献を動機付ける様々な報酬システムを設計する。
次に,両者への貢献をインセンティブとする報酬システムを提案する。
我々は,複数の医療用胸部X線データセットを用いて,患者の性別と年齢によって定義される患者サブグループに着目した研究を行った。
以上の結果から,バイアスに対する貢献度の測定に成功し,認知度の低いモデルに対する貢献度をインセンティブとして総合的な報酬システムを構築することができた。
スキャンの分割は全体のバイアスにわずかにしか影響しないが、あるサブグループからのデータを持つ機関は、このサブグループに有利なバイアスをもたらす。
以上の結果から,予測性能のみに焦点を当てた報酬システムは,患者に対するモデルバイアスを機関レベルで伝達できることが示唆された。
我々の研究は、研究者や実践者が、信頼できるMLのための適切なインセンティブを持つFLの報酬システムの設計を支援する。
関連論文リスト
- FairFML: Fair Federated Machine Learning with a Case Study on Reducing Gender Disparities in Cardiac Arrest Outcome Prediction [10.016644624468762]
本稿では,Fair Federated Machine Learning (FairFML)について紹介する。
概念実証として,心停止予測における性差の低減を目的とした実世界の臨床ケーススタディを用いて,FairFMLを検証した。
その結果,FairFMLは局所モデルと集中モデルの両方に匹敵する性能を維持しながら,集中モデルと比較して最大65%のモデルフェアネス向上を実現していることがわかった。
論文 参考訳(メタデータ) (2024-10-07T13:02:04Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Fairness-aware Model-agnostic Positive and Unlabeled Learning [38.50536380390474]
フェアプル(FairPUL)という,フェアネスを意識したポジティブ・アンラベル学習手法を提案する。
2つの集団の個体を二分分類するために、同様の正の率と偽の正の率を達成することを目指している。
我々のフレームワークは、分類誤差と公正度の両方の観点から統計的に一貫性があることが証明されている。
論文 参考訳(メタデータ) (2022-06-19T08:04:23Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Increasing Fairness in Predictions Using Bias Parity Score Based Loss
Function Regularization [0.8594140167290099]
従来のバイナリクロスエントロピーに基づく精度損失と合わせて使用する正則化成分の公平性向上のファミリを導入する。
我々は、人口統計に基づく成人所得データセットと同様に、再分配予測タスクの文脈に展開する。
論文 参考訳(メタデータ) (2021-11-05T17:42:33Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。