論文の概要: Investigating underdiagnosis of AI algorithms in the presence of
multiple sources of dataset bias
- arxiv url: http://arxiv.org/abs/2201.07856v1
- Date: Wed, 19 Jan 2022 20:51:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 13:30:45.757359
- Title: Investigating underdiagnosis of AI algorithms in the presence of
multiple sources of dataset bias
- Title(参考訳): データセットバイアスの複数の源が存在する場合のAIアルゴリズムの下位診断の検討
- Authors: Melanie Bernhardt, Charles Jones, Ben Glocker
- Abstract要約: 報告書は、機械学習が人間の偏見によって既存の健康格差を増幅する可能性への懸念を提起している。
バイアスの再現や増幅の程度を慎重に調査することが重要である。
トレーニングデータと同じ偏り分布から引き出されたデータをテストすることにより,モデルフェアネスを評価することに関連する理論的,実践的な課題を強調した。
- 参考スコア(独自算出の注目度): 20.50071537200745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models have shown great potential for image-based diagnosis
assisting clinical decision making. At the same time, an increasing number of
reports raise concerns about the potential risk that machine learning could
amplify existing health disparities due to human biases that are embedded in
the training data. It is of great importance to carefully investigate the
extent to which biases may be reproduced or even amplified if we wish to build
fair artificial intelligence systems. Seyyed-Kalantari et al. advance this
conversation by analysing the performance of a disease classifier across
population subgroups. They raise performance disparities related to
underdiagnosis as a point of concern; we identify areas from this analysis
which we believe deserve additional attention. Specifically, we wish to
highlight some theoretical and practical difficulties associated with assessing
model fairness through testing on data drawn from the same biased distribution
as the training data, especially when the sources and amount of biases are
unknown.
- Abstract(参考訳): 深層学習モデルは、臨床意思決定を支援する画像ベースの診断に大きな可能性を示している。
同時に、多くのレポートが、トレーニングデータに埋め込まれた人間のバイアスによって、機械学習が既存の健康格差を増幅する可能性があるという潜在的なリスクを提起している。
公平な人工知能システムを構築したいのであれば、バイアスの再現や増幅の程度を慎重に検討することが非常に重要です。
seyyed-kalantariらはこの会話を進め、集団における病原体分類器の性能を分析した。
この分析から,下垂体症に関連するパフォーマンスの格差が指摘され,さらなる注意を払わなければならないと考えられる領域が特定される。
具体的には、トレーニングデータと同じバイアス分布から引き出されたデータ、特に情報源やバイアス量が不明な場合に、モデルフェアネスを評価することに関連する理論的、実践的な困難を強調したい。
関連論文リスト
- Few-shot learning for COVID-19 Chest X-Ray Classification with
Imbalanced Data: An Inter vs. Intra Domain Study [49.5374512525016]
医療画像データセットは、コンピュータ支援診断、治療計画、医学研究に使用される訓練モデルに不可欠である。
データ分散のばらつき、データの不足、ジェネリックイメージから事前トレーニングされたモデルを使用する場合の転送学習の問題などである。
本稿では,データ不足と分散不均衡の影響を軽減するために,一連の手法を統合したシームズニューラルネットワークに基づく手法を提案する。
論文 参考訳(メタデータ) (2024-01-18T16:59:27Z) - (Predictable) Performance Bias in Unsupervised Anomaly Detection [3.826262429926079]
教師なし異常検出(UAD)モデルは、疾患検出の重要な第1ステップを支援することを約束する。
本研究は, ある集団群に対して, UADモデルの異なる性能を定量的に評価した。
論文 参考訳(メタデータ) (2023-09-25T14:57:43Z) - Analyzing the Effects of Handling Data Imbalance on Learned Features
from Medical Images by Looking Into the Models [50.537859423741644]
不均衡なデータセットでモデルをトレーニングすることは、学習問題にユニークな課題をもたらす可能性がある。
ニューラルネットワークの内部ユニットを深く調べて、データの不均衡処理が学習した機能にどのように影響するかを観察します。
論文 参考訳(メタデータ) (2022-04-04T09:38:38Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Statistical quantification of confounding bias in predictive modelling [0.0]
未確立モデルと完全構築モデルのnull仮説を探索する部分的および完全共創テストを提案する。
このテストは、非正規および非線形依存の予測であっても、I型エラーと高い統計的パワーに対して厳格な制御を提供する。
論文 参考訳(メタデータ) (2021-11-01T10:35:24Z) - The pitfalls of using open data to develop deep learning solutions for
COVID-19 detection in chest X-rays [64.02097860085202]
深層学習モデルは、胸部X線から新型コロナウイルスを識別するために開発された。
オープンソースデータのトレーニングやテストでは,結果は異例です。
データ分析とモデル評価は、人気のあるオープンソースデータセットであるCOVIDxが実際の臨床問題を代表していないことを示している。
論文 参考訳(メタデータ) (2021-09-14T10:59:11Z) - On the diminishing return of labeling clinical reports [2.1431637042179683]
医療用NLPモデルを少量のラベル付きデータで取得できることを示す。
胸部X線X線画像診断データのうち, 胸部X線画像診断におけるトレーニングデータサイズの影響を定量的に検討した。
論文 参考訳(メタデータ) (2020-10-27T19:51:04Z) - Learning Invariant Feature Representation to Improve Generalization
across Chest X-ray Datasets [55.06983249986729]
我々は、トレーニングデータと同じデータセットでテストすると、ディープラーニングモデルが、異なるソースからデータセットでテストされると、パフォーマンスが低下し始めることを示す。
対戦型トレーニング戦略を用いることで、ネットワークはソース不変表現を学習せざるを得ないことを示す。
論文 参考訳(メタデータ) (2020-08-04T07:41:15Z) - Deep Mining External Imperfect Data for Chest X-ray Disease Screening [57.40329813850719]
我々は、外部のCXRデータセットを組み込むことで、不完全なトレーニングデータにつながると論じ、課題を提起する。
本研究は,多ラベル病分類問題を重み付き独立二分課題として分類する。
我々のフレームワークは、ドメインとラベルの相違を同時にモデル化し、対処し、優れた知識マイニング能力を実現する。
論文 参考訳(メタデータ) (2020-06-06T06:48:40Z) - Detect and Correct Bias in Multi-Site Neuroimaging Datasets [2.750124853532831]
神経画像のバイアスを調べるため、17の研究で脳の35,320個の磁気共鳴画像を合成した。
我々は、しばしば観察研究における主要な欠点と見なされる共起バイアスについて、より詳しく検討する。
我々は最近導入されたComBatアルゴリズムを拡張し、画像特徴間のグローバルな変動を制御する。
論文 参考訳(メタデータ) (2020-02-12T15:32:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。