論文の概要: Fairness in Cardiac MR Image Analysis: An Investigation of Bias Due to
Data Imbalance in Deep Learning Based Segmentation
- arxiv url: http://arxiv.org/abs/2106.12387v1
- Date: Wed, 23 Jun 2021 13:27:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 19:35:00.579988
- Title: Fairness in Cardiac MR Image Analysis: An Investigation of Bias Due to
Data Imbalance in Deep Learning Based Segmentation
- Title(参考訳): 心臓MRI画像解析における公正性:深層学習におけるデータ不均衡によるバイアスの検討
- Authors: Esther Puyol-Anton, Bram Ruijsink, Stefan K. Piechnik, Stefan
Neubauer, Steffen E. Petersen, Reza Razavi, and Andrew P. King
- Abstract要約: AIにおける「フェアネス」とは、人種や性別などの人口統計特性に基づいて、潜在的なバイアスのアルゴリズムを評価することを指す。
近年, 心MR領域の深層学習(DL)が注目されているが, それらの妥当性についてはまだ研究されていない。
異なる人種集団間でDiceのパフォーマンスに統計的に有意な差が認められた。
- 参考スコア(独自算出の注目度): 1.6386696247541932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The subject of "fairness" in artificial intelligence (AI) refers to assessing
AI algorithms for potential bias based on demographic characteristics such as
race and gender, and the development of algorithms to address this bias. Most
applications to date have been in computer vision, although some work in
healthcare has started to emerge. The use of deep learning (DL) in cardiac MR
segmentation has led to impressive results in recent years, and such techniques
are starting to be translated into clinical practice. However, no work has yet
investigated the fairness of such models. In this work, we perform such an
analysis for racial/gender groups, focusing on the problem of training data
imbalance, using a nnU-Net model trained and evaluated on cine short axis
cardiac MR data from the UK Biobank dataset, consisting of 5,903 subjects from
6 different racial groups. We find statistically significant differences in
Dice performance between different racial groups. To reduce the racial bias, we
investigated three strategies: (1) stratified batch sampling, in which batch
sampling is stratified to ensure balance between racial groups; (2) fair
meta-learning for segmentation, in which a DL classifier is trained to classify
race and jointly optimized with the segmentation model; and (3) protected group
models, in which a different segmentation model is trained for each racial
group. We also compared the results to the scenario where we have a perfectly
balanced database. To assess fairness we used the standard deviation (SD) and
skewed error ratio (SER) of the average Dice values. Our results demonstrate
that the racial bias results from the use of imbalanced training data, and that
all proposed bias mitigation strategies improved fairness, with the best SD and
SER resulting from the use of protected group models.
- Abstract(参考訳): 人工知能(AI)における「フェアネス」の主題は、人種や性別などの人口動態特性に基づく潜在的なバイアスに対するAIアルゴリズムの評価と、このバイアスに対処するアルゴリズムの開発である。
これまでほとんどのアプリケーションはコンピュータビジョンで使われてきたが、医療分野の仕事がいくつか現れ始めている。
心臓mrセグメンテーションにおける深層学習(dl)の使用は近年、印象的な結果をもたらしており、その技術は臨床に翻訳され始めている。
しかし、これらのモデルの公平性についてはまだ研究されていない。
本研究では,6つの人種グループから5,903人の被験者からなる英国バイオバンクデータセットから,短軸心MRデータをトレーニングし,評価したnnU-Netモデルを用いて,人種/ジェンダーグループを対象としたこのような分析を行った。
異なる人種間でのサイコロのパフォーマンスに統計的に有意な差が見られた。
人種バイアスを低減するために,(1) 人種間のバランスを確保するためにバッチサンプリングが階層化される階層化バッチサンプリング,(2) 人種分類のための公平なメタラーニング,(2) DL分類器が人種分類を訓練し,セグメンテーションモデルと共同最適化されたグループモデル,(3) 人種毎に異なるセグメンテーションモデルを訓練する保護されたグループモデル,の3つの戦略を検討した。
また、完全にバランスの取れたデータベースがあるシナリオと比較しました。
公平性を評価するために,平均Dice値の標準偏差(SD)とスキュード誤差比(SER)を用いた。
以上の結果から,不均衡なトレーニングデータを用いることにより人種バイアスが生じ,提案されているバイアス緩和戦略はすべて公平性が向上し,保護されたグループモデルを用いた最良のsdとserが得られた。
関連論文リスト
- Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Fairness-enhancing mixed effects deep learning improves fairness on in- and out-of-distribution clustered (non-iid) data [6.596656267996196]
フェア・ミックスド・エフェクト・ディープ・ラーニング(Fair MEDL)フレームワークを紹介する。
Fair MEDLは、クラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を定量化する
敵の偏見を取り入れて、平等化オッド、デモグラフィックパリティ、カウンターファクトフェアネスの3つの主要な指標の公平性を促進する。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - Addressing Racial Bias in Facial Emotion Recognition [1.4896509623302834]
本研究は、人種分布の異なるサブサンプリングトレーニングセットによる人種バイアスの分析に焦点を当てた。
その結果,シミュレーションが人種的バランスに近づくにつれて,顔の小さいデータセットは公平さとパフォーマンスの指標の両方を改善することが示唆された。
顔の変動が大きい大きなデータセットでは、公正度指標は概して一定であり、人種的バランス自体が異なる人種グループ間でのテストパフォーマンスの同等性を達成するには不十分であることを示唆している。
論文 参考訳(メタデータ) (2023-08-09T03:03:35Z) - Race Bias Analysis of Bona Fide Errors in face anti-spoofing [0.0]
本稿では,3つの重要な特徴を持つ反スプーフに面した人種偏見の系統的研究について述べる。
焦点は、重大な倫理的および法的問題があるボナフェイドエラーの潜在的なバイアスを分析することにある。
本稿では,VQ-VAEに基づくフェース・アンチ・スプーフィング・アルゴリズムのバイアス解析プロセスについて述べる。
論文 参考訳(メタデータ) (2022-10-11T11:49:24Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - LOGAN: Local Group Bias Detection by Clustering [86.38331353310114]
コーパスレベルでバイアスを評価することは、モデルにバイアスがどのように埋め込まれているかを理解するのに十分ではない、と我々は主張する。
クラスタリングに基づく新しいバイアス検出手法であるLOGANを提案する。
毒性分類および対象分類タスクの実験は、LOGANが局所領域のバイアスを特定することを示している。
論文 参考訳(メタデータ) (2020-10-06T16:42:51Z) - Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? [11.435833538081557]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、バイアスがあるだけでなく、真のデータ分布に最適な精度を持つ分類器を生成する。
公平性に制約されたERMによるこの問題の是正能力について検討する。
また、トレーニングデータの再重み付け、等化オッド、復号化パリティなど、他のリカバリ手法についても検討する。
論文 参考訳(メタデータ) (2019-12-02T22:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。