論文の概要: Risk of Training Diagnostic Algorithms on Data with Demographic Bias
- arxiv url: http://arxiv.org/abs/2005.10050v2
- Date: Wed, 17 Jun 2020 11:33:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 04:30:10.918245
- Title: Risk of Training Diagnostic Algorithms on Data with Demographic Bias
- Title(参考訳): 集団バイアスのあるデータに対する診断アルゴリズムの訓練リスク
- Authors: Samaneh Abbasi-Sureshjani, Ralf Raumanns, Britt E. J. Michels, Gerard
Schouten, Veronika Cheplygina
- Abstract要約: 医用画像解析アプリケーションにおけるMICCAI 2018の実践を調査するために,MICCAI 2018の手順を調査した。
意外なことに、診断に焦点を当てた論文では、使用されるデータセットの人口統計がほとんど書かれていないことが判明した。
本研究では,非偏りのある特徴を,対向的な学習環境において,人口統計変数を明示的に使用することにより学習可能であることを示す。
- 参考スコア(独自算出の注目度): 0.5599792629509227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the critical challenges in machine learning applications is to have
fair predictions. There are numerous recent examples in various domains that
convincingly show that algorithms trained with biased datasets can easily lead
to erroneous or discriminatory conclusions. This is even more crucial in
clinical applications where the predictive algorithms are designed mainly based
on a limited or given set of medical images and demographic variables such as
age, sex and race are not taken into account. In this work, we conduct a survey
of the MICCAI 2018 proceedings to investigate the common practice in medical
image analysis applications. Surprisingly, we found that papers focusing on
diagnosis rarely describe the demographics of the datasets used, and the
diagnosis is purely based on images. In order to highlight the importance of
considering the demographics in diagnosis tasks, we used a publicly available
dataset of skin lesions. We then demonstrate that a classifier with an overall
area under the curve (AUC) of 0.83 has variable performance between 0.76 and
0.91 on subgroups based on age and sex, even though the training set was
relatively balanced. Moreover, we show that it is possible to learn unbiased
features by explicitly using demographic variables in an adversarial training
setup, which leads to balanced scores per subgroups. Finally, we discuss the
implications of these results and provide recommendations for further research.
- Abstract(参考訳): 機械学習アプリケーションにおける重要な課題の1つは、公正な予測を持つことである。
バイアス付きデータセットでトレーニングされたアルゴリズムが、誤った結論や差別的な結論につながることを説得力強く示す、さまざまなドメインには、最近の多くの例がある。
これは、主に限られたまたは与えられた医療画像に基づいて予測アルゴリズムを設計し、年齢、性別、人種などの人口統計学的変数を考慮しない臨床応用においてさらに重要である。
本研究は,医療画像解析における一般的な実践を調査するために,miccai 2018の手順を調査した。
驚くべきことに、診断に焦点をあてた論文は、使用するデータセットの人口統計をほとんど記述せず、診断は純粋に画像に基づいていることがわかった。
診断課題における人口統計学的考察の重要性を強調するため,皮膚病変の公開データセットを用いた。
次に,曲線(AUC)の0.83の全体面積を持つ分類器は,訓練セットが比較的バランスが取れていたにもかかわらず,年齢と性別に基づく部分群において0.76から0.91の変動性能を有することを示した。
さらに,非偏りのある特徴を,対角的トレーニング設定における人口統計変数を明示的に用いて学習することが可能であることを示す。
最後に,これらの結果の意義について考察し,さらなる研究の提言を行う。
関連論文リスト
- Fairness Evolution in Continual Learning for Medical Imaging [47.52603262576663]
医用画像の分類性能に関する連続学習戦略(CL)の行動について検討した。
我々は,リプレイ,フォーッティングなし学習(LwF),LwF,Pseudo-Label戦略を評価した。
LwF と Pseudo-Label は最適な分類性能を示すが、評価に公正度の測定値を含めると、Pseudo-Label がバイアスが少ないことは明らかである。
論文 参考訳(メタデータ) (2024-04-10T09:48:52Z) - Demographic Bias of Expert-Level Vision-Language Foundation Models in
Medical Imaging [13.141767097232796]
自己監督型視覚言語基盤モデルは、明示的なトレーニングアノテーションに頼ることなく、幅広い病態を検出することができる。
これらのAIモデルが人間の偏見を反映または増幅しないことを保証することが不可欠である。
本研究では,5つのグローバルソースデータセットを対象とした胸部X線診断における最先端の視覚言語基盤モデルのアルゴリズム的公正性について検討した。
論文 参考訳(メタデータ) (2024-02-22T18:59:53Z) - An AI-Guided Data Centric Strategy to Detect and Mitigate Biases in
Healthcare Datasets [32.25265709333831]
我々は、小さなサンプルサイズ(AEquity)で異なるグループをいかに容易に学習するかを調査することによって、データセットバイアスを評価するために、データ中心、モデルに依存しないタスク非依存のアプローチを生成する。
次に、サブポピュレーション全体にわたるAEq値の体系的分析を適用し、医療における2つの既知の事例において、人種的偏見の特定と顕在化を図った。
AEqは、医療データセットのバイアスを診断し、修正することで、エクイティの前進に適用できる、新しく広く適用可能なメトリクスである。
論文 参考訳(メタデータ) (2023-11-06T17:08:41Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Adapting Machine Learning Diagnostic Models to New Populations Using a Small Amount of Data: Results from Clinical Neuroscience [21.420302408947194]
我々は、ソースグループからのデータを最適に組み合わせ、ターゲットグループで予測する、重み付き経験的リスク最小化手法を開発した。
本研究では,アルツハイマー病の診断と脳年齢推定のためのMLモデルを構築するため,20の神経画像研究から15,363人のマルチソースデータに適用した。
論文 参考訳(メタデータ) (2023-08-06T18:05:39Z) - Towards unraveling calibration biases in medical image analysis [2.4054878434935074]
典型的に採用されるキャリブレーションの指標が,サンプルサイズに対して体系的に偏りがあることを示す。
これは、データ不均衡が人口構成群間で劇的なサンプルサイズ差をもたらすフェアネス研究に特に関係している。
論文 参考訳(メタデータ) (2023-05-09T00:11:35Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - IA-GCN: Interpretable Attention based Graph Convolutional Network for
Disease prediction [47.999621481852266]
タスクに対する入力特徴の臨床的関連性を解釈する,解釈可能なグラフ学習モデルを提案する。
臨床シナリオでは、そのようなモデルは、臨床専門家が診断および治療計画のためのより良い意思決定を支援することができる。
本研究では,Tadpoleの平均精度が3.2%,UKBBジェンダーが1.6%,UKBB年齢予測タスクが2%と,比較方法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2021-03-29T13:04:02Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Select-ProtoNet: Learning to Select for Few-Shot Disease Subtype
Prediction [55.94378672172967]
本研究は, 類似患者のサブグループを同定し, 数発の疾患のサブタイプ予測問題に焦点を当てた。
新しいモデルを開発するためにメタラーニング技術を導入し、関連する臨床課題から共通の経験や知識を抽出する。
我々の新しいモデルは、単純だが効果的なメタ学習マシンであるPrototypeal Networkと呼ばれる、慎重に設計されたメタラーナーに基づいて構築されている。
論文 参考訳(メタデータ) (2020-09-02T02:50:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。