論文の概要: A systematic study of race and sex bias in CNN-based cardiac MR
segmentation
- arxiv url: http://arxiv.org/abs/2209.01627v1
- Date: Sun, 4 Sep 2022 14:32:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 13:01:58.809228
- Title: A systematic study of race and sex bias in CNN-based cardiac MR
segmentation
- Title(参考訳): cnn心筋mrセグメンテーションにおける人種と性バイアスの系統的研究
- Authors: Tiarna Lee, Esther Puyol-Anton, Bram Ruijsink, Miaojing Shi, and
Andrew P. King
- Abstract要約: CNNを用いたセグメンテーションにおいて,トレーニングセットの不均衡が人種や性バイアスに与える影響について,最初の系統的研究を行った。
本研究は,短軸シン心磁気共鳴画像から心構造を抽出し,人種/性不均衡の異なる複数のCNNセグメンテーションモデルを訓練する。
性別実験では有意な偏見はないが、2つの異なる人種実験では有意な偏見が見られ、健康データセットにおける異なる人口集団の適切な表現を検討する必要性が浮き彫りになっている。
- 参考スコア(独自算出の注目度): 6.507372382471608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In computer vision there has been significant research interest in assessing
potential demographic bias in deep learning models. One of the main causes of
such bias is imbalance in the training data. In medical imaging, where the
potential impact of bias is arguably much greater, there has been less
interest. In medical imaging pipelines, segmentation of structures of interest
plays an important role in estimating clinical biomarkers that are subsequently
used to inform patient management. Convolutional neural networks (CNNs) are
starting to be used to automate this process. We present the first systematic
study of the impact of training set imbalance on race and sex bias in CNN-based
segmentation. We focus on segmentation of the structures of the heart from
short axis cine cardiac magnetic resonance images, and train multiple CNN
segmentation models with different levels of race/sex imbalance. We find no
significant bias in the sex experiment but significant bias in two separate
race experiments, highlighting the need to consider adequate representation of
different demographic groups in health datasets.
- Abstract(参考訳): コンピュータビジョンでは、ディープラーニングモデルにおける潜在的な人口統計バイアスを評価することに大きな研究関心が寄せられている。
このようなバイアスの主な原因の1つは、トレーニングデータの不均衡である。
バイアスの潜在的影響がはるかに大きい医療画像では、あまり関心が寄せられていない。
医用イメージングパイプラインでは、興味のある構造の分割は、患者の管理に使用される臨床バイオマーカーを推定する上で重要な役割を果たす。
畳み込みニューラルネットワーク(CNN)はこのプロセスを自動化するために使われ始めている。
CNNを用いたセグメンテーションにおいて,トレーニングセットの不均衡が人種や性バイアスに与える影響について,最初の系統的研究を行った。
本研究は,短軸シン心磁気共鳴画像から心構造を抽出し,人種/性不均衡の異なる複数のCNNセグメンテーションモデルを訓練する。
性別実験では有意な偏見はないが、2つの異なる人種実験では有意な偏見が見られ、健康データセットにおける異なる人口集団の適切な表現を検討する必要性が強調された。
関連論文リスト
- Dataset Distribution Impacts Model Fairness: Single vs. Multi-Task Learning [2.9530211066840417]
ResNetベースのCNNを用いて皮膚病変分類の性能を評価する。
患者性やクラスラベルの異なるデータセットを生成するための線形プログラミング手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T15:23:26Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Studying the Effects of Sex-related Differences on Brain Age Prediction
using brain MR Imaging [0.3958317527488534]
脳磁気共鳴画像(MRI)に基づく機械学習モデルを開発する際の性に関するバイアスについて検討する。
異なる実験設計を考慮に入れた脳年齢予測を行い,性別の影響について検討した。
異なる性別サブグループとデータセットで訓練した脳年齢予測モデルの性能に相違が認められた。
論文 参考訳(メタデータ) (2023-10-17T20:55:53Z) - An investigation into the impact of deep learning model choice on sex
and race bias in cardiac MR segmentation [8.449342469976758]
被検者の性別と人種の不均衡が、AIによる心臓磁気共鳴画像のセグメンテーションにどのように影響するかを検討する。
4つのモデルのうち3つのモデルに有意な性的偏見があり、すべてのモデルに人種的偏見がある。
論文 参考訳(メタデータ) (2023-08-25T14:55:38Z) - A Study of Demographic Bias in CNN-based Brain MR Segmentation [43.55994393060723]
脳MRセグメンテーションのためのCNNモデルは、不均衡なトレーニングセットでトレーニングされた時に性差や人種バイアスを含む可能性がある。
我々は、白人被験者で異なるレベルの性不均衡を用いて、FastSurferCNNモデルの複数のインスタンスを訓練する。
セグメンテーションモデルの性能には有意な性差と人種バイアスの影響が認められた。
論文 参考訳(メタデータ) (2022-08-13T10:07:54Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z) - Do Neural Ranking Models Intensify Gender Bias? [13.37092521347171]
まず、IRモデルのランキングリストにおいて、性別関連概念の非バランスの存在度を定量化するための2つの指標を含むバイアス測定フレームワークを提供する。
これらのクエリをMS MARCOパッセージ検索コレクションに適用し、BM25モデルと最近のニューラルランキングモデルの性別バイアスを測定する。
結果は、すべてのモデルが男性に対して強く偏りを呈する一方で、神経モデル、特に文脈化された埋め込みモデルに基づくモデルは、性バイアスを著しく強めていることを示している。
論文 参考訳(メタデータ) (2020-05-01T13:31:11Z) - Causal Mediation Analysis for Interpreting Neural NLP: The Case of
Gender Bias [45.956112337250275]
本稿では, 因果媒介分析の理論に基づく手法を提案し, モデルのどの部分が因果関係に関係しているかを解釈する。
本研究では,事前学習したトランスフォーマー言語モデルにおける性別バイアスの分析に本手法を適用した。
媒介分析の結果,性別バイアス効果は (i) ネットワークのごく一部に集中しており, (ii) 相乗的, 増幅的, あるいは抑圧的であり, (iii) 入力から直接的に, 仲介者を通して間接的に流れる効果に分解可能であることがわかった。
論文 参考訳(メタデータ) (2020-04-26T01:53:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。