論文の概要: Exploring the interplay of label bias with subgroup size and separability: A case study in mammographic density classification
- arxiv url: http://arxiv.org/abs/2507.17996v1
- Date: Thu, 24 Jul 2025 00:21:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:42.722767
- Title: Exploring the interplay of label bias with subgroup size and separability: A case study in mammographic density classification
- Title(参考訳): サブグループサイズと分離性を持つラベルバイアスの相互作用を探る:マンモグラフィーの密度分類におけるケーススタディ
- Authors: Emma A. M. Stanley, Raghav Mehta, Mélanie Roschewitz, Nils D. Forkert, Ben Glocker,
- Abstract要約: 本研究では,ラベルバイアスの影響を受けやすいサブグループのサイズと分離性が,ディープラーニングモデルの学習特徴と性能に与える影響について検討した。
シミュレーションされたサブグループラベルバイアスは,学習したモデルの特徴表現に顕著な変化をもたらすことがわかった。
また,クリーンラベル付き検証セットを用いてモデルの分類しきい値を定義するかによって,サブグループ性能に顕著な差異が認められた。
- 参考スコア(独自算出の注目度): 13.269267374212802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Systematic mislabelling affecting specific subgroups (i.e., label bias) in medical imaging datasets represents an understudied issue concerning the fairness of medical AI systems. In this work, we investigated how size and separability of subgroups affected by label bias influence the learned features and performance of a deep learning model. Therefore, we trained deep learning models for binary tissue density classification using the EMory BrEast imaging Dataset (EMBED), where label bias affected separable subgroups (based on imaging manufacturer) or non-separable "pseudo-subgroups". We found that simulated subgroup label bias led to prominent shifts in the learned feature representations of the models. Importantly, these shifts within the feature space were dependent on both the relative size and the separability of the subgroup affected by label bias. We also observed notable differences in subgroup performance depending on whether a validation set with clean labels was used to define the classification threshold for the model. For instance, with label bias affecting the majority separable subgroup, the true positive rate for that subgroup fell from 0.898, when the validation set had clean labels, to 0.518, when the validation set had biased labels. Our work represents a key contribution toward understanding the consequences of label bias on subgroup fairness in medical imaging AI.
- Abstract(参考訳): 医療画像データセットの特定のサブグループ(すなわちラベルバイアス)に影響を及ぼす体系的ミスラベリングは、医療AIシステムの公正性に関する未調査の問題である。
本研究では,ラベルバイアスの影響を受けやすいサブグループのサイズと分離性が,ディープラーニングモデルの特徴と性能に与える影響について検討した。
そこで,EMory BrEast Imaging Dataset (EMBED) を用いて2次組織密度分類のための深層学習モデルを訓練した。
シミュレーションされたサブグループラベルバイアスは,学習したモデルの特徴表現に顕著な変化をもたらすことがわかった。
特徴空間内のこれらの変化は, ラベルバイアスによる部分群の相対的サイズと分離性の両方に依存した。
また,クリーンラベル付き検証セットを用いてモデルの分類しきい値を定義するかによって,サブグループ性能に顕著な差異が認められた。
例えば、ラベルバイアスが多数分離可能なサブグループに影響を及ぼすと、そのサブグループの正の率は、検証セットがクリーンラベルを持つ0.898から、検証セットがバイアスラベルを持つ0.518に低下した。
我々の研究は、医療画像AIにおけるサブグループフェアネスに対するラベルバイアスの影響を理解するための重要な貢献である。
関連論文リスト
- Project-Probe-Aggregate: Efficient Fine-Tuning for Group Robustness [53.96714099151378]
画像テキスト基礎モデルのパラメータ効率向上のための3段階のアプローチを提案する。
本手法は, マイノリティ標本同定とロバストトレーニングアルゴリズムの2つの重要な要素を改良する。
我々の理論分析は,PPAが少数群の識別を向上し,バランスの取れたグループエラーを最小限に抑えるためにベイズが最適であることを示している。
論文 参考訳(メタデータ) (2025-03-12T15:46:12Z) - From Biased Selective Labels to Pseudo-Labels: An Expectation-Maximization Framework for Learning from Biased Decisions [9.440055827786596]
異種検閲という,臨床に着想を得た選択的ラベル問題について検討した。
Disparate Censorship expectation-Maximization (DCEM)は、このような検閲の存在下で学習するためのアルゴリズムである。
論文 参考訳(メタデータ) (2024-06-27T03:33:38Z) - The Role of Subgroup Separability in Group-Fair Medical Image
Classification [18.29079361470428]
診断などの系統的バイアスを伴うデータを用いて, サブグループ分離性, サブグループ分離性, 性能劣化の関係について検討した。
私たちの発見は、モデルがどのように偏見を抱くかという問題に新たな光を当て、公正な医療画像AIの開発に重要な洞察を与えました。
論文 参考訳(メタデータ) (2023-07-06T06:06:47Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - Test-time Adaptation with Calibration of Medical Image Classification
Nets for Label Distribution Shift [24.988087560120366]
医用画像分類のためのラベルシフトに最初に取り組む手法を提案する。
本手法は,1つのトレーニングラベル分布から学習したモデルを任意の未知のテストラベル分布に効果的に適用する。
肝線維症ステージングと重症度予測の2つの重要な医用画像分類タスクについて,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-07-02T07:55:23Z) - Fairness-aware Model-agnostic Positive and Unlabeled Learning [38.50536380390474]
フェアプル(FairPUL)という,フェアネスを意識したポジティブ・アンラベル学習手法を提案する。
2つの集団の個体を二分分類するために、同様の正の率と偽の正の率を達成することを目指している。
我々のフレームワークは、分類誤差と公正度の両方の観点から統計的に一貫性があることが証明されている。
論文 参考訳(メタデータ) (2022-06-19T08:04:23Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - Fair Classification with Group-Dependent Label Noise [6.324366770332667]
本研究は,学習ラベルがランダムノイズで破損した環境で,公平な分類器を訓練する方法を検討する。
異種・集団依存の誤差率を考慮せずに、人口格差尺度にパリティ制約を鼻で課すことにより、その結果の精度と公平性を低下させることができることを示す。
論文 参考訳(メタデータ) (2020-10-31T22:35:01Z) - LOGAN: Local Group Bias Detection by Clustering [86.38331353310114]
コーパスレベルでバイアスを評価することは、モデルにバイアスがどのように埋め込まれているかを理解するのに十分ではない、と我々は主張する。
クラスタリングに基づく新しいバイアス検出手法であるLOGANを提案する。
毒性分類および対象分類タスクの実験は、LOGANが局所領域のバイアスを特定することを示している。
論文 参考訳(メタデータ) (2020-10-06T16:42:51Z) - Debiased Contrastive Learning [64.98602526764599]
我々は,同ラベルデータポイントのサンプリングを補正する,偏りのあるコントラスト目的の開発を行う。
実証的に、提案する目的は、視覚、言語、強化学習ベンチマークにおける表現学習の最先端を一貫して上回る。
論文 参考訳(メタデータ) (2020-07-01T04:25:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。