論文の概要: An investigation into the impact of deep learning model choice on sex
and race bias in cardiac MR segmentation
- arxiv url: http://arxiv.org/abs/2308.13415v1
- Date: Fri, 25 Aug 2023 14:55:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 13:29:28.905891
- Title: An investigation into the impact of deep learning model choice on sex
and race bias in cardiac MR segmentation
- Title(参考訳): 深層学習モデル選択が心MR区分けにおける性差と人種バイアスに及ぼす影響に関する研究
- Authors: Tiarna Lee, Esther Puyol-Ant\'on, Bram Ruijsink, Keana Aitcheson,
Miaojing Shi, Andrew P. King
- Abstract要約: 被検者の性別と人種の不均衡が、AIによる心臓磁気共鳴画像のセグメンテーションにどのように影響するかを検討する。
4つのモデルのうち3つのモデルに有意な性的偏見があり、すべてのモデルに人種的偏見がある。
- 参考スコア(独自算出の注目度): 8.449342469976758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In medical imaging, artificial intelligence (AI) is increasingly being used
to automate routine tasks. However, these algorithms can exhibit and exacerbate
biases which lead to disparate performances between protected groups. We
investigate the impact of model choice on how imbalances in subject sex and
race in training datasets affect AI-based cine cardiac magnetic resonance image
segmentation. We evaluate three convolutional neural network-based models and
one vision transformer model. We find significant sex bias in three of the four
models and racial bias in all of the models. However, the severity and nature
of the bias varies between the models, highlighting the importance of model
choice when attempting to train fair AI-based segmentation models for medical
imaging tasks.
- Abstract(参考訳): 医療画像では、人工知能(AI)がルーチンタスクの自動化にますます利用されている。
しかし、これらのアルゴリズムは、保護されたグループ間で異なるパフォーマンスをもたらすバイアスを示し、悪化させる可能性がある。
トレーニングデータセットにおける性別と人種の不均衡が,aiに基づくシネ型磁気共鳴画像のセグメンテーションに与える影響について,モデル選択が与える影響について検討した。
我々は3つの畳み込みニューラルネットワークモデルと1つの視覚トランスモデルを評価する。
4つのモデルのうち3つに有意な性的偏見があり、すべてのモデルに人種的偏見がある。
しかしながら、バイアスの重症度と性質はモデルによって異なり、医療画像タスクのための公平なaiベースのセグメンテーションモデルをトレーニングしようとする際のモデル選択の重要性が強調される。
関連論文リスト
- Towards objective and systematic evaluation of bias in medical imaging
AI [2.1937743088854584]
医療画像におけるバイアスがAIモデルに与える影響を調査するための新しい分析フレームワークを提案する。
医用画像AIの偏りを評価するために, サイリコ試験の制御を行うためのこのフレームワークを開発し, テストした。
論文 参考訳(メタデータ) (2023-11-03T01:37:28Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Studying the Effects of Sex-related Differences on Brain Age Prediction
using brain MR Imaging [0.3958317527488534]
脳磁気共鳴画像(MRI)に基づく機械学習モデルを開発する際の性に関するバイアスについて検討する。
異なる実験設計を考慮に入れた脳年齢予測を行い,性別の影響について検討した。
異なる性別サブグループとデータセットで訓練した脳年齢予測モデルの性能に相違が認められた。
論文 参考訳(メタデータ) (2023-10-17T20:55:53Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - A systematic study of race and sex bias in CNN-based cardiac MR
segmentation [6.507372382471608]
CNNを用いたセグメンテーションにおいて,トレーニングセットの不均衡が人種や性バイアスに与える影響について,最初の系統的研究を行った。
本研究は,短軸シン心磁気共鳴画像から心構造を抽出し,人種/性不均衡の異なる複数のCNNセグメンテーションモデルを訓練する。
性別実験では有意な偏見はないが、2つの異なる人種実験では有意な偏見が見られ、健康データセットにおける異なる人口集団の適切な表現を検討する必要性が浮き彫りになっている。
論文 参考訳(メタデータ) (2022-09-04T14:32:00Z) - Feature robustness and sex differences in medical imaging: a case study
in MRI-based Alzheimer's disease detection [1.7616042687330637]
我々はADNI MRIデータセットの2つの分類方式を比較した。
訓練データセットの性構成に対する男女試験対象者のモデル性能の強い依存は見つからない。
論文 参考訳(メタデータ) (2022-04-04T17:37:54Z) - Analyzing the Effects of Handling Data Imbalance on Learned Features
from Medical Images by Looking Into the Models [50.537859423741644]
不均衡なデータセットでモデルをトレーニングすることは、学習問題にユニークな課題をもたらす可能性がある。
ニューラルネットワークの内部ユニットを深く調べて、データの不均衡処理が学習した機能にどのように影響するかを観察します。
論文 参考訳(メタデータ) (2022-04-04T09:38:38Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - Reading Race: AI Recognises Patient's Racial Identity In Medical Images [9.287449389763413]
画像の解釈を行う人間の専門家にとって明らかな、医療画像における人種の相関関係は知られていない。
標準的なディープラーニングモデルは、複数の画像モダリティにまたがる高性能な医療画像から競合を予測するためにトレーニングすることができる。
論文 参考訳(メタデータ) (2021-07-21T21:10:16Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z) - Modeling Shared Responses in Neuroimaging Studies through MultiView ICA [94.31804763196116]
被験者の大規模なコホートを含むグループ研究は、脳機能組織に関する一般的な結論を引き出す上で重要である。
グループ研究のための新しい多視点独立成分分析モデルを提案し、各被験者のデータを共有独立音源と雑音の線形結合としてモデル化する。
まず、fMRIデータを用いて、被験者間の共通音源の同定における感度の向上を示す。
論文 参考訳(メタデータ) (2020-06-11T17:29:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。