論文の概要: Studying the Effects of Sex-related Differences on Brain Age Prediction
using brain MR Imaging
- arxiv url: http://arxiv.org/abs/2310.11577v1
- Date: Tue, 17 Oct 2023 20:55:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 18:27:26.297065
- Title: Studying the Effects of Sex-related Differences on Brain Age Prediction
using brain MR Imaging
- Title(参考訳): 脳mriを用いた性差が脳年齢予測に及ぼす影響の検討
- Authors: Mahsa Dibaji, Neha Gianchandani, Akhil Nair, Mansi Singhal, Roberto
Souza, Mariana Bento
- Abstract要約: 脳磁気共鳴画像(MRI)に基づく機械学習モデルを開発する際の性に関するバイアスについて検討する。
異なる実験設計を考慮に入れた脳年齢予測を行い,性別の影響について検討した。
異なる性別サブグループとデータセットで訓練した脳年齢予測モデルの性能に相違が認められた。
- 参考スコア(独自算出の注目度): 0.3958317527488534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While utilizing machine learning models, one of the most crucial aspects is
how bias and fairness affect model outcomes for diverse demographics. This
becomes especially relevant in the context of machine learning for medical
imaging applications as these models are increasingly being used for diagnosis
and treatment planning. In this paper, we study biases related to sex when
developing a machine learning model based on brain magnetic resonance images
(MRI). We investigate the effects of sex by performing brain age prediction
considering different experimental designs: model trained using only female
subjects, only male subjects and a balanced dataset. We also perform evaluation
on multiple MRI datasets (Calgary-Campinas(CC359) and CamCAN) to assess the
generalization capability of the proposed models. We found disparities in the
performance of brain age prediction models when trained on distinct sex
subgroups and datasets, in both final predictions and decision making (assessed
using interpretability models). Our results demonstrated variations in model
generalizability across sex-specific subgroups, suggesting potential biases in
models trained on unbalanced datasets. This underlines the critical role of
careful experimental design in generating fair and reliable outcomes.
- Abstract(参考訳): 機械学習モデルを活用する一方で、最も重要な側面の1つは、バイアスと公平性が多様な人口階層のモデル結果にどのように影響するかである。
これは、医療画像応用のための機械学習の文脈で特に重要となり、これらのモデルが診断や治療計画にますます使われている。
本稿では,脳磁気共鳴画像(MRI)に基づく機械学習モデルを開発する際の性に関するバイアスについて検討する。
本研究では, 女性のみを用いたモデル, 男性のみを用いたトレーニング, バランスの取れたデータセットを用いて, 脳年齢予測を行い, 性別の影響について検討した。
また,複数のMRIデータセット(Calgary-Campinas (CC359) とCamCAN) の評価を行い,提案モデルの一般化能力を評価する。
性別の異なるサブグループとデータセットでトレーニングした場合の脳年齢予測モデルの性能には,最終的な予測と意思決定(解釈可能性モデルを用いて評価)の相違が認められた。
その結果,性特異的なサブグループ間でモデルの一般化性が変化し,不均衡データセット上で訓練されたモデルの潜在的なバイアスが示唆された。
このことは、公正で信頼性の高い結果を生み出す上で、慎重な実験設計が重要な役割を担っている。
関連論文リスト
- Dataset Distribution Impacts Model Fairness: Single vs. Multi-Task Learning [2.9530211066840417]
ResNetベースのCNNを用いて皮膚病変分類の性能を評価する。
患者性やクラスラベルの異なるデータセットを生成するための線形プログラミング手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T15:23:26Z) - A Demographic-Conditioned Variational Autoencoder for fMRI Distribution Sampling and Removal of Confounds [49.34500499203579]
変動型オートエンコーダ(VAE)ベースのモデルであるDemoVAEを作成し、人口統計学から fMRI の特徴を推定する。
ユーザが供給する人口動態に基づいて,高品質な合成fMRIデータを生成する。
論文 参考訳(メタデータ) (2024-05-13T17:49:20Z) - Analysing race and sex bias in brain age prediction [18.68533487971233]
本稿では,サブグループ性能解析と特徴検査を行うことにより,一般的なResNet-34モデルを解析する。
その結果,黒,白,黒,アジア,男女の予測性能に統計的に有意な差が認められた。
論文 参考訳(メタデータ) (2023-09-19T14:40:19Z) - An investigation into the impact of deep learning model choice on sex
and race bias in cardiac MR segmentation [8.449342469976758]
被検者の性別と人種の不均衡が、AIによる心臓磁気共鳴画像のセグメンテーションにどのように影響するかを検討する。
4つのモデルのうち3つのモデルに有意な性的偏見があり、すべてのモデルに人種的偏見がある。
論文 参考訳(メタデータ) (2023-08-25T14:55:38Z) - Machine Learning Models Are Not Necessarily Biased When Constructed
Properly: Evidence from Neuroimaging Studies [19.288217559980545]
我々は、適切に訓練された機械学習モデルが、様々な条件にまたがって適切に一般化できる実験データを提供する。
具体的には、アルツハイマー病、統合失調症、自閉症スペクトラム障害の診断にマルチスタディ磁気共鳴画像コンソーシアを用いて、よく訓練されたモデルの精度が、異なるサブグループ間で一致していることが判明した。
論文 参考訳(メタデータ) (2022-05-26T15:24:39Z) - Analyzing the Effects of Handling Data Imbalance on Learned Features
from Medical Images by Looking Into the Models [50.537859423741644]
不均衡なデータセットでモデルをトレーニングすることは、学習問題にユニークな課題をもたらす可能性がある。
ニューラルネットワークの内部ユニットを深く調べて、データの不均衡処理が学習した機能にどのように影響するかを観察します。
論文 参考訳(メタデータ) (2022-04-04T09:38:38Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Modeling Shared Responses in Neuroimaging Studies through MultiView ICA [94.31804763196116]
被験者の大規模なコホートを含むグループ研究は、脳機能組織に関する一般的な結論を引き出す上で重要である。
グループ研究のための新しい多視点独立成分分析モデルを提案し、各被験者のデータを共有独立音源と雑音の線形結合としてモデル化する。
まず、fMRIデータを用いて、被験者間の共通音源の同定における感度の向上を示す。
論文 参考訳(メタデータ) (2020-06-11T17:29:53Z) - Do Neural Ranking Models Intensify Gender Bias? [13.37092521347171]
まず、IRモデルのランキングリストにおいて、性別関連概念の非バランスの存在度を定量化するための2つの指標を含むバイアス測定フレームワークを提供する。
これらのクエリをMS MARCOパッセージ検索コレクションに適用し、BM25モデルと最近のニューラルランキングモデルの性別バイアスを測定する。
結果は、すべてのモデルが男性に対して強く偏りを呈する一方で、神経モデル、特に文脈化された埋め込みモデルに基づくモデルは、性バイアスを著しく強めていることを示している。
論文 参考訳(メタデータ) (2020-05-01T13:31:11Z) - InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics [73.85525896663371]
この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
論文 参考訳(メタデータ) (2020-04-14T15:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。