論文の概要: Mitigating Calibration Bias Without Fixed Attribute Grouping for
Improved Fairness in Medical Imaging Analysis
- arxiv url: http://arxiv.org/abs/2307.01738v2
- Date: Thu, 20 Jul 2023 17:53:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 17:28:53.944468
- Title: Mitigating Calibration Bias Without Fixed Attribute Grouping for
Improved Fairness in Medical Imaging Analysis
- Title(参考訳): 医用画像解析の公平性向上を目的とした固定属性群のない校正バイアスの緩和
- Authors: Changjian Shui, Justin Szeto, Raghav Mehta, Douglas L. Arnold, Tal
Arbel
- Abstract要約: クラスタ・フォーカス (Cluster-Focal) は、まず粗悪な校正されたサンプルを識別し、それらをグループに分類し、その後、校正バイアスを改善するためにグループ指向の焦点損失を導入する。
HAM10000データセットを用いた皮膚病変分類と,多発性硬化症(MS)患者の将来の病変活動の予測について検討した。
- 参考スコア(独自算出の注目度): 2.8943928153775826
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Trustworthy deployment of deep learning medical imaging models into
real-world clinical practice requires that they be calibrated. However, models
that are well calibrated overall can still be poorly calibrated for a
sub-population, potentially resulting in a clinician unwittingly making poor
decisions for this group based on the recommendations of the model. Although
methods have been shown to successfully mitigate biases across subgroups in
terms of model accuracy, this work focuses on the open problem of mitigating
calibration biases in the context of medical image analysis. Our method does
not require subgroup attributes during training, permitting the flexibility to
mitigate biases for different choices of sensitive attributes without
re-training. To this end, we propose a novel two-stage method: Cluster-Focal to
first identify poorly calibrated samples, cluster them into groups, and then
introduce group-wise focal loss to improve calibration bias. We evaluate our
method on skin lesion classification with the public HAM10000 dataset, and on
predicting future lesional activity for multiple sclerosis (MS) patients. In
addition to considering traditional sensitive attributes (e.g. age, sex) with
demographic subgroups, we also consider biases among groups with different
image-derived attributes, such as lesion load, which are required in medical
image analysis. Our results demonstrate that our method effectively controls
calibration error in the worst-performing subgroups while preserving prediction
performance, and outperforming recent baselines.
- Abstract(参考訳): 深層学習医療画像モデルの現実的な臨床実践への展開には、校正が必要である。
しかし、全体として十分に調整されたモデルは、サブ人口の調整が不十分なままであり、このモデルの推奨に基づいて、臨床医が不意にこのグループの決定を下す可能性がある。
モデル精度の観点から,サブグループ間のバイアスの軽減に有効な方法が示されているが,本研究は医用画像解析の文脈におけるキャリブレーションバイアスの軽減に関するオープン問題に焦点を当てている。
本手法は訓練中にサブグループ属性を必要とせず,各属性の選択に対するバイアスを緩和する柔軟性を実現する。
そこで本研究では,まず低濃度の試料を同定し,それらをグループに分類し,グループワイド焦点損失を導入して校正バイアスを改善する2段階の手法を提案する。
HAM10000データセットを用いた皮膚病変分類と,多発性硬化症(MS)患者の将来の病変活動の予測について検討した。
また,年齢,性別などの従来の敏感な属性を年齢,性別などのサブグループで考慮することに加えて,医療画像解析において必要となる病変負荷など,画像由来の属性が異なるグループ間でのバイアスも考慮する。
提案手法は, 予測性能を維持しつつ, 最近のベースラインよりも高い精度で校正誤差を効果的に制御できることを示す。
関連論文リスト
- Bias Amplification Enhances Minority Group Performance [10.380812738348899]
本稿では,新しい2段階学習アルゴリズムであるBAMを提案する。
第1段階では、各トレーニングサンプルに対して学習可能な補助変数を導入することにより、バイアス増幅方式を用いてモデルを訓練する。
第2段階では、バイアス増幅モデルが誤分類したサンプルを重み付けし、その後、再重み付けされたデータセット上で同じモデルをトレーニングし続けます。
論文 参考訳(メタデータ) (2023-09-13T04:40:08Z) - Is this model reliable for everyone? Testing for strong calibration [4.893345190925178]
十分に校正されたリスク予測モデルでは、平均予測確率は任意のサブグループの真の事象率に近い。
強いキャリブレーションのためのモデル監査のタスクは、潜在的な部分群の数が多すぎるため、難しいことが知られている。
適合性試験の最近の進歩は潜在的な解決策を提供するが、弱い信号を持つ設定には設計されていない。
論文 参考訳(メタデータ) (2023-07-28T00:59:14Z) - Calibration of Neural Networks [77.34726150561087]
本稿では,ニューラルネットワークの文脈における信頼性校正問題について調査する。
我々は,問題文,キャリブレーション定義,評価に対する異なるアプローチについて分析する。
実験実験では、様々なデータセットとモデルをカバーし、異なる基準に従って校正方法を比較する。
論文 参考訳(メタデータ) (2023-03-19T20:27:51Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - On Calibrating Semantic Segmentation Models: Analyses and An Algorithm [51.85289816613351]
セマンティックセグメンテーションキャリブレーションの問題について検討する。
モデルキャパシティ、作物サイズ、マルチスケールテスト、予測精度はキャリブレーションに影響を及ぼす。
我々は、単純で統一的で効果的なアプローチ、すなわち選択的スケーリングを提案する。
論文 参考訳(メタデータ) (2022-12-22T22:05:16Z) - Fair admission risk prediction with proportional multicalibration [0.16249424686052708]
マルチキャリブレーション制約は、柔軟に定義されたサブポピュレーション間のキャリブレーション誤差を補正する。
意思決定者は特定のグループに対するモデル予測を信頼するか、不信にするかを学ぶことができる。
本稿では,グループ間および予測ビン内における正の校正誤差を制限する基準である比例多重校正を提案する。
論文 参考訳(メタデータ) (2022-09-29T08:15:29Z) - Density-Aware Personalized Training for Risk Prediction in Imbalanced
Medical Data [89.79617468457393]
不均衡率(クラス密度差)のトレーニングモデルは、最適以下の予測につながる可能性がある。
この不均衡問題に対するモデルトレーニングのためのフレームワークを提案する。
実世界の医療データセットにおけるモデルの性能向上を実証する。
論文 参考訳(メタデータ) (2022-07-23T00:39:53Z) - Prototypical Calibration for Few-shot Learning of Language Models [84.5759596754605]
GPTライクなモデルは、さまざまな手作りテンプレートやデモ順列にまたがる脆弱であると認識されている。
ゼロショットと少数ショットの分類において、より堅牢な決定境界を適応的に学習するためのプロトタイプキャリブレーションを提案する。
提案手法は決定境界を期待通りに校正し,テンプレート,置換,クラス不均衡に対するGPTの堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2022-05-20T13:50:07Z) - On the Calibration of Pre-trained Language Models using Mixup Guided by
Area Under the Margin and Saliency [47.90235939359225]
モデルキャリブレーションをさらに改善する事前学習型言語モデルのための新しい混合戦略を提案する。
本手法は,ドメイン内およびドメイン外テストサンプルの強いベースラインと比較して,最小のキャリブレーション誤差を実現する。
論文 参考訳(メタデータ) (2022-03-14T23:45:08Z) - Does deep learning model calibration improve performance in
class-imbalanced medical image classification? [0.8594140167290096]
モデル校正が2つの医用画像モダリティに与える影響を系統的に解析する。
その結果,0.5の既定動作閾値では,キャリブレーションにより達成される性能は,非校正確率よりも有意に優れていることがわかった。
論文 参考訳(メタデータ) (2021-09-29T12:00:32Z) - Improved Trainable Calibration Method for Neural Networks on Medical
Imaging Classification [17.941506832422192]
経験的に、ニューラルネットワークは、しばしば彼らの予測を誤解し、過度に信ずる。
本稿では,モデルキャリブレーションを大幅に改善しつつ,全体の分類精度を維持する新しいキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2020-09-09T01:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。