論文の概要: Machine Learning Models Are Not Necessarily Biased When Constructed
Properly: Evidence from Neuroimaging Studies
- arxiv url: http://arxiv.org/abs/2205.13421v1
- Date: Thu, 26 May 2022 15:24:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 20:36:49.339485
- Title: Machine Learning Models Are Not Necessarily Biased When Constructed
Properly: Evidence from Neuroimaging Studies
- Title(参考訳): 適切に構築された場合、機械学習モデルは不要である:ニューロイメージング研究からの証拠
- Authors: Rongguang Wang, Pratik Chaudhari, Christos Davatzikos
- Abstract要約: 我々は、適切に訓練された機械学習モデルが、様々な条件にまたがって適切に一般化できる実験データを提供する。
具体的には、アルツハイマー病、統合失調症、自閉症スペクトラム障害の診断にマルチスタディ磁気共鳴画像コンソーシアを用いて、よく訓練されたモデルの精度が、異なるサブグループ間で一致していることが判明した。
- 参考スコア(独自算出の注目度): 19.288217559980545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the great promise that machine learning has offered in many fields of
medicine, it has also raised concerns about potential biases and poor
generalization across genders, age distributions, races and ethnicities,
hospitals, and data acquisition equipment and protocols. In the current study,
and in the context of three brain diseases, we provide experimental data which
support that when properly trained, machine learning models can generalize well
across diverse conditions and do not suffer from biases. Specifically, by using
multi-study magnetic resonance imaging consortia for diagnosing Alzheimer's
disease, schizophrenia, and autism spectrum disorder, we find that, the
accuracy of well-trained models is consistent across different subgroups
pertaining to attributes such as gender, age, and racial groups, as also
different clinical studies. We find that models that incorporate multi-source
data from demographic, clinical, genetic factors and cognitive scores are also
unbiased. These models have better predictive accuracy across subgroups than
those trained only with structural measures in some cases but there are also
situations when these additional features do not help.
- Abstract(参考訳): 多くの医学分野において機械学習が提供してきた大きな約束にもかかわらず、性別、年齢分布、人種や民族、病院、データ取得機器やプロトコルに対する潜在的な偏見や一般化が懸念されている。
最近の研究、および3つの脳疾患の文脈において、適切に訓練された機械学習モデルは様々な条件にまたがってうまく一般化でき、バイアスに悩まされない実験データを提供する。
具体的には, アルツハイマー病, 統合失調症, 自閉症スペクトラム障害の診断にマルチスタディmriを用いて, 性別, 年齢, 人種などの属性に関連する異なるサブグループ間で, 訓練されたモデルの正確性が一致し, 臨床研究も異なることが判明した。
統計学、臨床、遺伝的要因、認知スコアの多元データを含むモデルも偏りがないことが判明した。
これらのモデルは、いくつかのケースでは構造的な測定でのみ訓練されたサブグループよりも予測精度が高いが、これらの追加機能が役に立たない状況もある。
関連論文リスト
- Studying the Effects of Sex-related Differences on Brain Age Prediction
using brain MR Imaging [0.3958317527488534]
脳磁気共鳴画像(MRI)に基づく機械学習モデルを開発する際の性に関するバイアスについて検討する。
異なる実験設計を考慮に入れた脳年齢予測を行い,性別の影響について検討した。
異なる性別サブグループとデータセットで訓練した脳年齢予測モデルの性能に相違が認められた。
論文 参考訳(メタデータ) (2023-10-17T20:55:53Z) - Adapting Machine Learning Diagnostic Models to New Populations Using a Small Amount of Data: Results from Clinical Neuroscience [21.420302408947194]
我々は、ソースグループからのデータを最適に組み合わせ、ターゲットグループで予測する、重み付き経験的リスク最小化手法を開発した。
本研究では,アルツハイマー病の診断と脳年齢推定のためのMLモデルを構築するため,20の神経画像研究から15,363人のマルチソースデータに適用した。
論文 参考訳(メタデータ) (2023-08-06T18:05:39Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Incomplete Multimodal Learning for Complex Brain Disorders Prediction [65.95783479249745]
本稿では,変換器と生成対向ネットワークを用いた不完全なマルチモーダルデータ統合手法を提案する。
アルツハイマー病神経画像イニシアチブコホートを用いたマルチモーダルイメージングによる認知変性と疾患予後の予測に本手法を適用した。
論文 参考訳(メタデータ) (2023-05-25T16:29:16Z) - Improving Deep Facial Phenotyping for Ultra-rare Disorder Verification
Using Model Ensembles [52.77024349608834]
我々は、DCNNを最先端の顔認識手法であるiResNetとArcFaceに置き換える影響を分析する。
提案するアンサンブルモデルにより,目視と目視の両障害に対する最先端のパフォーマンスが達成される。
論文 参考訳(メタデータ) (2022-11-12T23:28:54Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Potential sources of dataset bias complicate investigation of
underdiagnosis by machine learning algorithms [20.50071537200745]
Seyed-Kalantariらは、3つの胸部X線データセットで訓練されたモデルが偽陽性率の差をもたらすことを発見した。
この研究は、これらのモデルが体系的な下垂体手術を展示し、潜在的に増幅していると結論付けている。
論文 参考訳(メタデータ) (2022-01-19T20:51:38Z) - Relational Subsets Knowledge Distillation for Long-tailed Retinal
Diseases Recognition [65.77962788209103]
本研究では,長尾データを知識に基づいて複数のクラスサブセットに分割し,クラスサブセット学習を提案する。
モデルがサブセット固有の知識の学習に集中するように強制する。
提案手法は長期網膜疾患認識タスクに有効であることが判明した。
論文 参考訳(メタデータ) (2021-04-22T13:39:33Z) - Select-ProtoNet: Learning to Select for Few-Shot Disease Subtype
Prediction [55.94378672172967]
本研究は, 類似患者のサブグループを同定し, 数発の疾患のサブタイプ予測問題に焦点を当てた。
新しいモデルを開発するためにメタラーニング技術を導入し、関連する臨床課題から共通の経験や知識を抽出する。
我々の新しいモデルは、単純だが効果的なメタ学習マシンであるPrototypeal Networkと呼ばれる、慎重に設計されたメタラーナーに基づいて構築されている。
論文 参考訳(メタデータ) (2020-09-02T02:50:30Z) - Risk of Training Diagnostic Algorithms on Data with Demographic Bias [0.5599792629509227]
医用画像解析アプリケーションにおけるMICCAI 2018の実践を調査するために,MICCAI 2018の手順を調査した。
意外なことに、診断に焦点を当てた論文では、使用されるデータセットの人口統計がほとんど書かれていないことが判明した。
本研究では,非偏りのある特徴を,対向的な学習環境において,人口統計変数を明示的に使用することにより学習可能であることを示す。
論文 参考訳(メタデータ) (2020-05-20T13:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。