論文の概要: MEDFAIR: Benchmarking Fairness for Medical Imaging
- arxiv url: http://arxiv.org/abs/2210.01725v1
- Date: Tue, 4 Oct 2022 16:30:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 13:49:05.313529
- Title: MEDFAIR: Benchmarking Fairness for Medical Imaging
- Title(参考訳): MEDFAIR:医療画像のためのベンチマークフェアネス
- Authors: Yongshuo Zong, Yongxin Yang, Timothy Hospedales
- Abstract要約: MEDFAIRは、医療画像のための機械学習モデルの公正性をベンチマークするフレームワークである。
モデル選択基準の未検討の問題は、公正な結果に重大な影響を及ぼす可能性がある。
異なる倫理的原則を必要とするさまざまな医療応用シナリオを推奨する。
- 参考スコア(独自算出の注目度): 44.73351338165214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A multitude of work has shown that machine learning-based medical diagnosis
systems can be biased against certain subgroups of people. This has motivated a
growing number of bias mitigation algorithms that aim to address fairness
issues in machine learning. However, it is difficult to compare their
effectiveness in medical imaging for two reasons. First, there is little
consensus on the criteria to assess fairness. Second, existing bias mitigation
algorithms are developed under different settings, e.g., datasets, model
selection strategies, backbones, and fairness metrics, making a direct
comparison and evaluation based on existing results impossible. In this work,
we introduce MEDFAIR, a framework to benchmark the fairness of machine learning
models for medical imaging. MEDFAIR covers eleven algorithms from various
categories, nine datasets from different imaging modalities, and three model
selection criteria. Through extensive experiments, we find that the
under-studied issue of model selection criterion can have a significant impact
on fairness outcomes; while in contrast, state-of-the-art bias mitigation
algorithms do not significantly improve fairness outcomes over empirical risk
minimization (ERM) in both in-distribution and out-of-distribution settings. We
evaluate fairness from various perspectives and make recommendations for
different medical application scenarios that require different ethical
principles. Our framework provides a reproducible and easy-to-use entry point
for the development and evaluation of future bias mitigation algorithms in deep
learning. Code is available at https://github.com/ys-zong/MEDFAIR.
- Abstract(参考訳): 多くの研究が、機械学習ベースの医療診断システムは、特定のサブグループに対してバイアスを負うことができることを示した。
これにより、機械学習の公平性問題に対処するためのバイアス軽減アルゴリズムが増えている。
しかし, 2 つの理由から, 医用画像の有効性を比較することは困難である。
まず、公正性を評価する基準についてはほとんど合意がない。
第二に、データセット、モデル選択戦略、バックボーン、公平度メトリクスなど、異なる設定下で既存のバイアス緩和アルゴリズムを開発し、既存の結果に基づく直接比較と評価を不可能にする。
本研究では,医療画像における機械学習モデルの公平性を評価するためのフレームワークであるMEDFAIRを紹介する。
MEDFAIRは、さまざまなカテゴリの11のアルゴリズム、異なる画像の9つのデータセット、および3つのモデル選択基準をカバーしている。
より広範な実験により,モデル選択基準の未検討問題が公正性に重大な影響を及ぼすことが判明した。一方,現状偏見緩和アルゴリズムは,分布内および分布外設定の両方において,経験的リスク最小化(ERM)よりも公平性を著しく改善しない。
様々な観点から公正性を評価し,異なる倫理的原則を必要とする異なる医療応用シナリオを推奨する。
我々のフレームワークは、ディープラーニングにおける将来のバイアス軽減アルゴリズムの開発と評価のための再現可能で使いやすいエントリポイントを提供する。
コードはhttps://github.com/ys-zong/MEDFAIRで入手できる。
関連論文リスト
- On Biases in a UK Biobank-based Retinal Image Classification Model [0.0]
本研究は,イギリスバイオバンクの眼底網膜画像に違いが存在するかどうかを,これらの画像上での疾患分類モデルの評価とトレーニングにより検討する。
モデル全体の性能は高いが、大きな違いがある。
これらの手法は, 偏見に適応したより良い偏見緩和法の必要性を浮き彫りにして, 公平性を高めることができないことが判明した。
論文 参考訳(メタデータ) (2024-07-30T10:50:07Z) - FairMedFM: Fairness Benchmarking for Medical Imaging Foundation Models [37.803490266325]
医療画像における基礎モデル(FM)研究のためのフェアネスベンチマークであるFairMedFMを紹介する。
FairMedFMは17の一般的な医療画像データセットと統合されており、様々なモダリティ、次元、機密属性を含んでいる。
ゼロショット学習、線形探索、パラメータ効率のよい微調整、様々な下流タスク、分類とセグメンテーションなど、広く使われている20のFMを探索する。
論文 参考訳(メタデータ) (2024-07-01T05:47:58Z) - FairGridSearch: A Framework to Compare Fairness-Enhancing Models [0.0]
本稿では、二項分類に焦点を当て、公平性向上モデルを比較するための新しいフレームワークであるFairGridSearchを提案する。
この研究は、FairGridSearchを3つの一般的なデータセット(Adult, COMPAS, German Credit)に適用し、計量選択、基底推定器の選択、分類しきい値がモデルフェアネスに与える影響を分析する。
論文 参考訳(メタデータ) (2024-01-04T10:29:02Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Mitigating Health Disparities in EHR via Deconfounder [5.511343163506091]
我々は、医療データセットの格差問題に対処する新しいフレームワーク、Parity Medical Deconfounder(PriMeD)を提案する。
PriMeDはCVAE(Conditional Variational Autoencoder)を採用して、観測データに対する潜伏要因(代替共同設立者)を学習する。
論文 参考訳(メタデータ) (2022-10-28T05:16:50Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。