論文の概要: A Study of Demographic Bias in CNN-based Brain MR Segmentation
- arxiv url: http://arxiv.org/abs/2208.06613v1
- Date: Sat, 13 Aug 2022 10:07:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 13:45:58.614097
- Title: A Study of Demographic Bias in CNN-based Brain MR Segmentation
- Title(参考訳): CNNを用いた脳MRI分割における画像バイアスの検討
- Authors: Stefanos Ioannou (1), Hana Chockler (1 and 3), Alexander Hammers (2)
and Andrew P. King (2) ((1) Department of Informatics, King's College London,
U.K., (2) School of Biomedical Engineering and Imaging Sciences, King's
College London, U.K., (3) causaLens Ltd., U.K.)
- Abstract要約: 脳MRセグメンテーションのためのCNNモデルは、不均衡なトレーニングセットでトレーニングされた時に性差や人種バイアスを含む可能性がある。
我々は、白人被験者で異なるレベルの性不均衡を用いて、FastSurferCNNモデルの複数のインスタンスを訓練する。
セグメンテーションモデルの性能には有意な性差と人種バイアスの影響が認められた。
- 参考スコア(独自算出の注目度): 43.55994393060723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs) are increasingly being used to automate
the segmentation of brain structures in magnetic resonance (MR) images for
research studies. In other applications, CNN models have been shown to exhibit
bias against certain demographic groups when they are under-represented in the
training sets. In this work, we investigate whether CNN models for brain MR
segmentation have the potential to contain sex or race bias when trained with
imbalanced training sets. We train multiple instances of the FastSurferCNN
model using different levels of sex imbalance in white subjects. We evaluate
the performance of these models separately for white male and white female test
sets to assess sex bias, and furthermore evaluate them on black male and black
female test sets to assess potential racial bias. We find significant sex and
race bias effects in segmentation model performance. The biases have a strong
spatial component, with some brain regions exhibiting much stronger bias than
others. Overall, our results suggest that race bias is more significant than
sex bias. Our study demonstrates the importance of considering race and sex
balance when forming training sets for CNN-based brain MR segmentation, to
avoid maintaining or even exacerbating existing health inequalities through
biased research study findings.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、研究のために磁気共鳴(MR)画像における脳構造のセグメンテーションを自動化するためにますます使われている。
他の応用では、CNNモデルはトレーニングセットで表現されていないときに特定の人口集団に対してバイアスを示すことが示されている。
そこで本研究では,脳MRIのセグメンテーションのためのCNNモデルが,不均衡なトレーニングセットでトレーニングした場合に,性差や人種バイアスを含む可能性があるかを検討する。
我々は、白人被験者で異なるレベルの性不均衡を用いて、FastSurferCNNモデルの複数のインスタンスを訓練する。
性別バイアスを評価するために,白人男性と白人女性を対象に,これらのモデルの性能を別々に評価し,さらに黒人男性と黒人女性を対象に,潜在的な人種バイアスを評価する。
セグメンテーションモデルの性能には有意な性差と人種バイアスの影響がある。
バイアスは強い空間成分を持ち、一部の脳領域は他の領域よりも強いバイアスを示す。
その結果、人種偏見は性偏見よりも有意であることが示唆された。
本研究は,cnnベースの脳mrセグメンテーションのためのトレーニングセットを形成する際に,人種と性バランスを考慮することの重要性を示し,バイアスド・リサーチによる既存の健康不平等の維持や悪化を回避できることを示した。
関連論文リスト
- From Bias to Balance: Detecting Facial Expression Recognition Biases in Large Multimodal Foundation Models [3.1927733045184885]
本研究では,大規模マルチモーダルファンデーションモデル(LMFM)における表情認識(FER)システムの人種的偏見について考察する。
既存の研究は主に従来のFERモデル(CNN、RNN、ViT)に焦点を当てており、LMFMにおける人種的バイアスの理解のギャップを残している。
GPT-4o、PaliGemma、Gemini、CLIPの4つの主要なLMFMをベンチマークし、異なる人種層にわたる顔の感情検出のパフォーマンスを評価する。
論文 参考訳(メタデータ) (2024-08-27T07:54:01Z) - Dataset Distribution Impacts Model Fairness: Single vs. Multi-Task Learning [2.9530211066840417]
ResNetベースのCNNを用いて皮膚病変分類の性能を評価する。
患者性やクラスラベルの異なるデータセットを生成するための線形プログラミング手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T15:23:26Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Analysing race and sex bias in brain age prediction [18.68533487971233]
本稿では,サブグループ性能解析と特徴検査を行うことにより,一般的なResNet-34モデルを解析する。
その結果,黒,白,黒,アジア,男女の予測性能に統計的に有意な差が認められた。
論文 参考訳(メタデータ) (2023-09-19T14:40:19Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Studying Bias in GANs through the Lens of Race [91.95264864405493]
本研究では, 画像生成モデルの性能と評価が, 学習データセットの人種構成にどのように影響するかを検討する。
その結果, 生成した画像の人種構成は, トレーニングデータの保存に成功していることがわかった。
しかし、推論中に高品質な画像を生成する手法であるトランケーションは、データの人種的不均衡を悪化させる。
論文 参考訳(メタデータ) (2022-09-06T22:25:56Z) - A systematic study of race and sex bias in CNN-based cardiac MR
segmentation [6.507372382471608]
CNNを用いたセグメンテーションにおいて,トレーニングセットの不均衡が人種や性バイアスに与える影響について,最初の系統的研究を行った。
本研究は,短軸シン心磁気共鳴画像から心構造を抽出し,人種/性不均衡の異なる複数のCNNセグメンテーションモデルを訓練する。
性別実験では有意な偏見はないが、2つの異なる人種実験では有意な偏見が見られ、健康データセットにおける異なる人口集団の適切な表現を検討する必要性が浮き彫りになっている。
論文 参考訳(メタデータ) (2022-09-04T14:32:00Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Do Neural Ranking Models Intensify Gender Bias? [13.37092521347171]
まず、IRモデルのランキングリストにおいて、性別関連概念の非バランスの存在度を定量化するための2つの指標を含むバイアス測定フレームワークを提供する。
これらのクエリをMS MARCOパッセージ検索コレクションに適用し、BM25モデルと最近のニューラルランキングモデルの性別バイアスを測定する。
結果は、すべてのモデルが男性に対して強く偏りを呈する一方で、神経モデル、特に文脈化された埋め込みモデルに基づくモデルは、性バイアスを著しく強めていることを示している。
論文 参考訳(メタデータ) (2020-05-01T13:31:11Z) - InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics [73.85525896663371]
この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
論文 参考訳(メタデータ) (2020-04-14T15:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。