論文の概要: Investigating Demographic Bias in Brain MRI Segmentation: A Comparative Study of Deep-Learning and Non-Deep-Learning Methods
- arxiv url: http://arxiv.org/abs/2510.17999v1
- Date: Mon, 20 Oct 2025 18:25:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.445661
- Title: Investigating Demographic Bias in Brain MRI Segmentation: A Comparative Study of Deep-Learning and Non-Deep-Learning Methods
- Title(参考訳): 脳MRIにおけるDeep-Learning法とNon-Deep-Learning法の比較検討
- Authors: Ghazal Danaee, Marc Niethammer, Jarrett Rushmore, Sylvain Bouix,
- Abstract要約: 従来のアトラス法(ANT)とUNesT, nnU-Net, CoTrの3つの異なるセグメンテーションモデル(UNesT, nnU-Net, CoTr)の結果を評価する。
我々は、黒人女性、黒人男性、白人女性、白人男性という4つのサブグループを含むデータセットを利用する。
手動レーダと偏りのあるモデルからのセグメンテーションを用いて, 核アキュムベン(NAc)の体積に及ぼす性および人種の影響を調べた。
- 参考スコア(独自算出の注目度): 11.161101835644667
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep-learning-based segmentation algorithms have substantially advanced the field of medical image analysis, particularly in structural delineations in MRIs. However, an important consideration is the intrinsic bias in the data. Concerns about unfairness, such as performance disparities based on sensitive attributes like race and sex, are increasingly urgent. In this work, we evaluate the results of three different segmentation models (UNesT, nnU-Net, and CoTr) and a traditional atlas-based method (ANTs), applied to segment the left and right nucleus accumbens (NAc) in MRI images. We utilize a dataset including four demographic subgroups: black female, black male, white female, and white male. We employ manually labeled gold-standard segmentations to train and test segmentation models. This study consists of two parts: the first assesses the segmentation performance of models, while the second measures the volumes they produce to evaluate the effects of race, sex, and their interaction. Fairness is quantitatively measured using a metric designed to quantify fairness in segmentation performance. Additionally, linear mixed models analyze the impact of demographic variables on segmentation accuracy and derived volumes. Training on the same race as the test subjects leads to significantly better segmentation accuracy for some models. ANTs and UNesT show notable improvements in segmentation accuracy when trained and tested on race-matched data, unlike nnU-Net, which demonstrates robust performance independent of demographic matching. Finally, we examine sex and race effects on the volume of the NAc using segmentations from the manual rater and from our biased models. Results reveal that the sex effects observed with manual segmentation can also be observed with biased models, whereas the race effects disappear in all but one model.
- Abstract(参考訳): 深層学習に基づくセグメンテーションアルゴリズムは、特にMRIにおける構造的記述において、医学的画像解析の分野を大幅に進歩させた。
しかし、重要な考慮事項はデータの本質的なバイアスである。
人種や性などのセンシティブな属性に基づくパフォーマンスの格差など、不公平性に関する懸念がますます高まっている。
本研究では, 従来のアトラス法(ANT)とUNesT, nnU-Net, CoTrの3種類のセグメンテーションモデル(UNesT, nnU-Net, CoTr)を用いて, MRI画像中の左核と右核のアキュムベン(NAc)のセグメンテーションを行った。
我々は、黒人女性、黒人男性、白人女性、白人男性という4つのサブグループを含むデータセットを利用する。
我々は手動でゴールド標準セグメンテーションをラベル付けしてセグメンテーションモデルを訓練し、テストする。
本研究は,まずモデルのセグメンテーション性能を評価し,第2は,人種,性別,および相互作用の影響を評価するために生成するボリュームを測定した。
フェアネスは、セグメンテーション性能のフェアネスを定量化するために設計された計量を用いて定量的に測定される。
さらに、線形混合モデルは、人口統計学変数がセグメンテーション精度と導出量に与える影響を分析する。
テスト対象と同じレースでのトレーニングは、いくつかのモデルのセグメンテーション精度を著しく向上させる。
ANTとUNesTは、階層マッチングとは無関係に堅牢なパフォーマンスを示すnnU-Netとは異なり、レースマッチングデータでトレーニングおよびテストされた際に、セグメンテーション精度が顕著に向上している。
最後に、手動レーダと偏りのあるモデルからのセグメンテーションを用いて、NAcの体積に対する性および人種の影響について検討する。
その結果,手動セグメンテーションで観察される性効果は偏りのあるモデルでも観察できることがわかった。
関連論文リスト
- How far can bias go? -- Tracing bias from pretraining data to alignment [54.51310112013655]
本研究では, 事前学習データにおける性別占有バイアスと, LLMにおける性別占有バイアスの相関について検討した。
その結果,事前学習データに存在するバイアスがモデル出力に増幅されることが判明した。
論文 参考訳(メタデータ) (2024-11-28T16:20:25Z) - Dataset Distribution Impacts Model Fairness: Single vs. Multi-Task Learning [2.9530211066840417]
ResNetベースのCNNを用いて皮膚病変分類の性能を評価する。
患者性やクラスラベルの異なるデータセットを生成するための線形プログラミング手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T15:23:26Z) - An Empirical Study on the Fairness of Foundation Models for Multi-Organ Image Segmentation [15.377701636336784]
肝臓, 腎臓, 脾臓, 肺, 大動脈などの臓器の3次元MRIおよびCTのベンチマークデータセットを前向きに収集する。
本研究では, 性別, 年齢, 身体集団指数(BMI)などの人口統計の詳細を文書化し, 曖昧さの分析を容易にする。
様々な要因を考慮に入れた包括的分析により,これらの基礎モデルにおいて重要な公平性に関する懸念が浮かび上がっている。
論文 参考訳(メタデータ) (2024-06-18T14:14:04Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - A systematic study of race and sex bias in CNN-based cardiac MR
segmentation [6.507372382471608]
CNNを用いたセグメンテーションにおいて,トレーニングセットの不均衡が人種や性バイアスに与える影響について,最初の系統的研究を行った。
本研究は,短軸シン心磁気共鳴画像から心構造を抽出し,人種/性不均衡の異なる複数のCNNセグメンテーションモデルを訓練する。
性別実験では有意な偏見はないが、2つの異なる人種実験では有意な偏見が見られ、健康データセットにおける異なる人口集団の適切な表現を検討する必要性が浮き彫りになっている。
論文 参考訳(メタデータ) (2022-09-04T14:32:00Z) - Fairness in Cardiac MR Image Analysis: An Investigation of Bias Due to
Data Imbalance in Deep Learning Based Segmentation [1.6386696247541932]
AIにおける「フェアネス」とは、人種や性別などの人口統計特性に基づいて、潜在的なバイアスのアルゴリズムを評価することを指す。
近年, 心MR領域の深層学習(DL)が注目されているが, それらの妥当性についてはまだ研究されていない。
異なる人種集団間でDiceのパフォーマンスに統計的に有意な差が認められた。
論文 参考訳(メタデータ) (2021-06-23T13:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。