論文の概要: Investigating Label Bias and Representational Sources of Age-Related Disparities in Medical Segmentation
- arxiv url: http://arxiv.org/abs/2511.00477v1
- Date: Sat, 01 Nov 2025 10:06:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.796773
- Title: Investigating Label Bias and Representational Sources of Age-Related Disparities in Medical Segmentation
- Title(参考訳): 医療セグメンテーションにおけるラベルバイアスと年齢差の表現源の検討
- Authors: Aditya Parikh, Sneha Das, Aasa Feragen,
- Abstract要約: 医療画像におけるアルゴリズムバイアスは、健康格差を持続させる。
乳がんセグメンテーションでは、モデルが若年者に対して大きなパフォーマンス格差を示す。
本研究は,医学的セグメンテーションにおけるアルゴリズムバイアスの診断のための体系的枠組みを導入する。
- 参考スコア(独自算出の注目度): 8.774604259603304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic bias in medical imaging can perpetuate health disparities, yet its causes remain poorly understood in segmentation tasks. While fairness has been extensively studied in classification, segmentation remains underexplored despite its clinical importance. In breast cancer segmentation, models exhibit significant performance disparities against younger patients, commonly attributed to physiological differences in breast density. We audit the MAMA-MIA dataset, establishing a quantitative baseline of age-related bias in its automated labels, and reveal a critical Biased Ruler effect where systematically flawed labels for validation misrepresent a model's actual bias. However, whether this bias originates from lower-quality annotations (label bias) or from fundamentally more challenging image characteristics remains unclear. Through controlled experiments, we systematically refute hypotheses that the bias stems from label quality sensitivity or quantitative case difficulty imbalance. Balancing training data by difficulty fails to mitigate the disparity, revealing that younger patient cases are intrinsically harder to learn. We provide direct evidence that systemic bias is learned and amplified when training on biased, machine-generated labels, a critical finding for automated annotation pipelines. This work introduces a systematic framework for diagnosing algorithmic bias in medical segmentation and demonstrates that achieving fairness requires addressing qualitative distributional differences rather than merely balancing case counts.
- Abstract(参考訳): 医用画像におけるアルゴリズムバイアスは、健康格差を持続させるが、その原因はセグメンテーションタスクでは理解されていない。
公平性は分類において広く研究されているが、その臨床的重要性にもかかわらず、セグメンテーションは未発見のままである。
乳がんセグメンテーションでは、モデルが若年者に対して大きなパフォーマンス格差を示しており、一般的には乳がん密度の生理的差異に起因する。
我々はMAMA-MIAデータセットを監査し、その自動ラベルに年齢関連バイアスの定量的ベースラインを確立するとともに、システム的に欠陥のあるラベルがモデルの実際のバイアスを誤って表現する重要なバイアスド・ルール効果を明らかにする。
しかし、このバイアスが低品質のアノテーション(ラベルバイアス)に由来するのか、あるいは根本的なより難しい画像特性に由来するのかは、まだ不明である。
制御された実験を通して、バイアスはラベル品質の感度や定量的ケースの難易度の不均衡に起因するという仮説を系統的に否定する。
困難によるトレーニングデータのバランシングは格差を軽減するのに失敗し、若い患者は本質的に学ぶのが難しいことが判明した。
バイアスのあるマシン生成ラベルのトレーニングにおいて,システムバイアスが学習され,増幅されるという直接的な証拠を提供する。
この研究は、医学セグメント化におけるアルゴリズムバイアスを診断するための体系的な枠組みを導入し、公平性を達成するには、単にケースカウントのバランスをとるのではなく、質的な分布差に対処する必要があることを示した。
関連論文リスト
- Who Does Your Algorithm Fail? Investigating Age and Ethnic Bias in the MAMA-MIA Dataset [8.774604259603304]
乳癌腫瘍分類データセットMAMA-MIAで提供された自動セグメンテーションラベルの妥当性を検証した。
以上の結果から,若年者に対する本態性年齢関連バイアスは,データソースなどのコンバウンド要因をコントロールした後も持続することが明らかとなった。
論文 参考訳(メタデータ) (2025-10-31T12:20:31Z) - FairREAD: Re-fusing Demographic Attributes after Disentanglement for Fair Medical Image Classification [3.615240611746158]
FairREAD (Fair Refusion After Disentanglement) は, センシティブな階層属性を公正な画像表現に再統合することで不公平を緩和するフレームワークである。
FairREADは、臨床に関係のある詳細を保存するために、制御された再灌流機構を使用しながら、人口統計情報をアンタングルする敵の訓練を採用している。
大規模臨床X線データセットの総合的評価は、FairREADが診断精度を維持しながら不公平度指標を著しく低減することを示した。
論文 参考訳(メタデータ) (2024-12-20T22:17:57Z) - Achieving Reliable and Fair Skin Lesion Diagnosis via Unsupervised Domain Adaptation [43.1078084014722]
教師なしドメイン適応(UDA)は、信頼性の高い分類器を開発するために、大きな外部データセットを統合することができる。
UDAは少数派に対する偏見を効果的に軽減し、診断システムの公平性を高めることができる。
論文 参考訳(メタデータ) (2023-07-06T17:32:38Z) - M$^3$Fair: Mitigating Bias in Healthcare Data through Multi-Level and
Multi-Sensitive-Attribute Reweighting Method [13.253174531040106]
複数のレベルにおいてRW法を複数の感度属性に拡張し,マルチレベルかつマルチセンシティブな属性再重み付け手法であるM3Fairを提案する。
実世界のデータセットに対する我々の実験は、アプローチが医療の公平性問題に対処する上で効果的で、単純で、一般化可能であることを示している。
論文 参考訳(メタデータ) (2023-06-07T03:20:44Z) - Towards unraveling calibration biases in medical image analysis [2.4054878434935074]
典型的に採用されるキャリブレーションの指標が,サンプルサイズに対して体系的に偏りがあることを示す。
これは、データ不均衡が人口構成群間で劇的なサンプルサイズ差をもたらすフェアネス研究に特に関係している。
論文 参考訳(メタデータ) (2023-05-09T00:11:35Z) - Self-supervised debiasing using low rank regularization [59.84695042540525]
純粋な相関は、ディープニューラルネットワークの強いバイアスを引き起こし、一般化能力を損なう可能性がある。
ラベルのないサンプルと互換性のある自己監督型脱バイアスフレームワークを提案する。
注目すべきは,提案フレームワークが自己教師付き学習ベースラインの一般化性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-10-11T08:26:19Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。