論文の概要: Towards unraveling calibration biases in medical image analysis
- arxiv url: http://arxiv.org/abs/2305.05101v1
- Date: Tue, 9 May 2023 00:11:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 14:13:30.913862
- Title: Towards unraveling calibration biases in medical image analysis
- Title(参考訳): 医用画像解析における校正バイアスの展開
- Authors: Mar\'ia Agustina Ricci Lara, Candelaria Mosquera, Enzo Ferrante,
Rodrigo Echeveste
- Abstract要約: 典型的に採用されるキャリブレーションの指標が,サンプルサイズに対して体系的に偏りがあることを示す。
これは、データ不均衡が人口構成群間で劇的なサンプルサイズ差をもたらすフェアネス研究に特に関係している。
- 参考スコア(独自算出の注目度): 2.4054878434935074
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years the development of artificial intelligence (AI) systems for
automated medical image analysis has gained enormous momentum. At the same
time, a large body of work has shown that AI systems can systematically and
unfairly discriminate against certain populations in various application
scenarios. These two facts have motivated the emergence of algorithmic fairness
studies in this field. Most research on healthcare algorithmic fairness to date
has focused on the assessment of biases in terms of classical discrimination
metrics such as AUC and accuracy. Potential biases in terms of model
calibration, however, have only recently begun to be evaluated. This is
especially important when working with clinical decision support systems, as
predictive uncertainty is key for health professionals to optimally evaluate
and combine multiple sources of information. In this work we study
discrimination and calibration biases in models trained for automatic detection
of malignant dermatological conditions from skin lesions images. Importantly,
we show how several typically employed calibration metrics are systematically
biased with respect to sample sizes, and how this can lead to erroneous
fairness analysis if not taken into consideration. This is of particular
relevance to fairness studies, where data imbalance results in drastic sample
size differences between demographic sub-groups, which, if not taken into
account, can act as confounders.
- Abstract(参考訳): 近年,自動化医療画像解析のための人工知能(AI)システムの開発が大きな勢いで進んでいる。
同時に、多くの研究機関が、AIシステムは様々な応用シナリオにおいて、特定の集団に対して体系的かつ不公平に差別することができることを示した。
これらの2つの事実は、この分野におけるアルゴリズム的公平性研究の出現の動機となった。
医療アルゴリズムの公正性に関する多くの研究は、AUCのような古典的差別指標と正確性の観点からバイアスの評価に焦点を当てている。
しかし、モデルキャリブレーションの観点からの潜在的なバイアスは、最近になって評価され始めたばかりである。
これは、医療専門家が複数の情報ソースを最適に評価し結合する上で、予測の不確実性が鍵となるため、臨床意思決定支援システムで作業する場合に特に重要である。
本研究では皮膚病変画像から悪性皮膚疾患を自動的に検出する訓練モデルにおける識別と校正バイアスについて検討した。
重要なことは、いくつかの典型的なキャリブレーション指標がサンプルサイズに対して体系的に偏っていること、そしてこのことが考慮しない場合、誤ってフェアネス分析に繋がることを示す。
これはフェアネス研究に特に関係しており、データの不均衡によって人口統計学のサブグループ間で大きなサンプルサイズの違いが生じ、それが考慮されていないとしても、共同設立者として振る舞うことができる。
関連論文リスト
- Debias-CLR: A Contrastive Learning Based Debiasing Method for Algorithmic Fairness in Healthcare Applications [0.17624347338410748]
異なる治療と戦うために,暗黙の処理内脱バイアス法を提案した。
心不全患者の臨床記録と診断基準,治療報告,生理的活力について検討した。
Debias-CLRは、性別や民族を嫌う場合に、SC-WEAT(Single-Category Word Embedding Association Test)の効果を減少させることができた。
論文 参考訳(メタデータ) (2024-11-15T19:32:01Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Mitigating Calibration Bias Without Fixed Attribute Grouping for
Improved Fairness in Medical Imaging Analysis [2.8943928153775826]
クラスタ・フォーカス (Cluster-Focal) は、まず粗悪な校正されたサンプルを識別し、それらをグループに分類し、その後、校正バイアスを改善するためにグループ指向の焦点損失を導入する。
HAM10000データセットを用いた皮膚病変分類と,多発性硬化症(MS)患者の将来の病変活動の予測について検討した。
論文 参考訳(メタデータ) (2023-07-04T14:14:12Z) - MEDFAIR: Benchmarking Fairness for Medical Imaging [44.73351338165214]
MEDFAIRは、医療画像のための機械学習モデルの公正性をベンチマークするフレームワークである。
モデル選択基準の未検討の問題は、公正な結果に重大な影響を及ぼす可能性がある。
異なる倫理的原則を必要とするさまざまな医療応用シナリオを推奨する。
論文 参考訳(メタデータ) (2022-10-04T16:30:47Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Explaining medical AI performance disparities across sites with
confounder Shapley value analysis [8.785345834486057]
マルチサイト評価は、このような格差を診断する鍵となる。
本フレームワークは,各種類のバイアスが全体の性能差に与える影響を定量化する手法を提供する。
本研究は, 深部学習モデルを用いて気胸の有無を検知し, その有用性を実証するものである。
論文 参考訳(メタデータ) (2021-11-12T18:54:10Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Risk of Training Diagnostic Algorithms on Data with Demographic Bias [0.5599792629509227]
医用画像解析アプリケーションにおけるMICCAI 2018の実践を調査するために,MICCAI 2018の手順を調査した。
意外なことに、診断に焦点を当てた論文では、使用されるデータセットの人口統計がほとんど書かれていないことが判明した。
本研究では,非偏りのある特徴を,対向的な学習環境において,人口統計変数を明示的に使用することにより学習可能であることを示す。
論文 参考訳(メタデータ) (2020-05-20T13:51:01Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z) - Hemogram Data as a Tool for Decision-making in COVID-19 Management:
Applications to Resource Scarcity Scenarios [62.997667081978825]
新型コロナウイルス(COVID-19)のパンデミックは世界中の緊急対応システムに挑戦している。
本研究は, 症状患者の血液検査データから得られた機械学習モデルについて述べる。
提案されたモデルでは、新型コロナウイルスqRT-PCRの結果を、高い精度、感度、特異性で症状のある個人に予測することができる。
論文 参考訳(メタデータ) (2020-05-10T01:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。