論文の概要: (Predictable) Performance Bias in Unsupervised Anomaly Detection
- arxiv url: http://arxiv.org/abs/2309.14198v1
- Date: Mon, 25 Sep 2023 14:57:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 15:11:00.525436
- Title: (Predictable) Performance Bias in Unsupervised Anomaly Detection
- Title(参考訳): 教師なし異常検出における(予測可能な)性能バイアス
- Authors: Felix Meissen, Svenja Breuer, Moritz Knolle, Alena Buyx, Ruth
M\"uller, Georgios Kaissis, Benedikt Wiestler, Daniel R\"uckert
- Abstract要約: 教師なし異常検出(UAD)モデルは、疾患検出の重要な第1ステップを支援することを約束する。
本研究は, ある集団群に対して, UADモデルの異なる性能を定量的に評価した。
- 参考スコア(独自算出の注目度): 3.826262429926079
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Background: With the ever-increasing amount of medical imaging data, the
demand for algorithms to assist clinicians has amplified. Unsupervised anomaly
detection (UAD) models promise to aid in the crucial first step of disease
detection. While previous studies have thoroughly explored fairness in
supervised models in healthcare, for UAD, this has so far been unexplored.
Methods: In this study, we evaluated how dataset composition regarding
subgroups manifests in disparate performance of UAD models along multiple
protected variables on three large-scale publicly available chest X-ray
datasets. Our experiments were validated using two state-of-the-art UAD models
for medical images. Finally, we introduced a novel subgroup-AUROC (sAUROC)
metric, which aids in quantifying fairness in machine learning.
Findings: Our experiments revealed empirical "fairness laws" (similar to
"scaling laws" for Transformers) for training-dataset composition: Linear
relationships between anomaly detection performance within a subpopulation and
its representation in the training data. Our study further revealed performance
disparities, even in the case of balanced training data, and compound effects
that exacerbate the drop in performance for subjects associated with multiple
adversely affected groups.
Interpretation: Our study quantified the disparate performance of UAD models
against certain demographic subgroups. Importantly, we showed that this
unfairness cannot be mitigated by balanced representation alone. Instead, the
representation of some subgroups seems harder to learn by UAD models than that
of others. The empirical fairness laws discovered in our study make disparate
performance in UAD models easier to estimate and aid in determining the most
desirable dataset composition.
- Abstract(参考訳): 背景: 医用画像データの増大に伴い, 臨床医を支援するアルゴリズムの需要が増大している。
教師なし異常検出(UAD)モデルは、疾患検出の重要な第1ステップを支援することを約束する。
これまでの研究は、医療における監督されたモデルの公平性を徹底的に研究してきたが、uadにとって、これはまだ未調査である。
方法: 本研究は, 大規模公開胸部X線データセットを用いて, 複数の保護変数に沿って, UADモデルの異なる性能を示すサブグループに関するデータセット構成について検討した。
医用画像に対する2つの最先端UADモデルを用いて実験を行った。
最後に,機械学習におけるフェアネスの定量化を支援する,新しいサブグループAUROC(sAUROC)メトリクスを導入した。
結果: 実験により, 訓練-データセット構成のための経験則である「フェアネス則」(トランスフォーマーのスケーリング則と類似) が明らかにされた。
本研究は, バランスの取れた訓練データにおいても, 成績の相違が明らかとなり, 複数の障害群に合併した被験者の成績低下を悪化させる複合効果が示された。
解釈: 本研究は, ある集団群に対して, UADモデルの異なる性能を定量化した。
重要なことに、バランスの取れた表現だけでは、この不公平さを軽減できない。
代わりに、一部のサブグループの表現は他のサブグループよりも UAD モデルで学ぶのが難しく見える。
本研究で発見された経験的公正性法則は,最も望ましいデータセット構成を推定し,支援することを容易にする。
関連論文リスト
- Intuitionistic Fuzzy Universum Twin Support Vector Machine for Imbalanced Data [0.0]
機械学習手法の大きな問題の1つは、不均衡なデータセットを分類することである。
不均衡データ(IFUTSVM-ID)のための直観的ファジィユニバームツインサポートベクトルマシンを提案する。
雑音や外周の影響を軽減するため,直観主義的なファジィ・メンバシップ・スキームを用いる。
論文 参考訳(メタデータ) (2024-10-27T04:25:42Z) - UDA-Bench: Revisiting Common Assumptions in Unsupervised Domain Adaptation Using a Standardized Framework [59.428668614618914]
現代無監督領域適応法(UDA)の有効性に影響を及ぼす様々な要因について, より深く考察する。
分析を容易にするため,ドメイン適応のためのトレーニングと評価を標準化する新しいPyTorchフレームワークであるUDA-Benchを開発した。
論文 参考訳(メタデータ) (2024-09-23T17:57:07Z) - Does Data-Efficient Generalization Exacerbate Bias in Foundation Models? [2.298227866545911]
ファンデーションモデルは、様々なドメインでラベル効率を持つ堅牢なモデルとして登場した。
事前学習中に機密属性の存在に偏った大量のラベル付きデータを使用することが、モデルの公平性に影響を与えるかどうかは不明である。
本研究は,ブラジルの多ラベル眼科学データセットを微調整する際のファンデーションモデルのバイアスについて検討する。
論文 参考訳(メタデータ) (2024-08-28T22:14:44Z) - Slicing Through Bias: Explaining Performance Gaps in Medical Image Analysis using Slice Discovery Methods [5.274804664403783]
我々はSlice Discovery Methodsを用いて、観測された性能格差の原因に関する仮説とデータの解釈可能な未実行部分集合を同定する。
本研究は, 仮説定式化におけるSDMの有効性を実証し, 既往の男女間パフォーマンスの相違について解説する。
論文 参考訳(メタデータ) (2024-06-17T23:08:46Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - Mitigating Health Disparities in EHR via Deconfounder [5.511343163506091]
我々は、医療データセットの格差問題に対処する新しいフレームワーク、Parity Medical Deconfounder(PriMeD)を提案する。
PriMeDはCVAE(Conditional Variational Autoencoder)を採用して、観測データに対する潜伏要因(代替共同設立者)を学習する。
論文 参考訳(メタデータ) (2022-10-28T05:16:50Z) - Potential sources of dataset bias complicate investigation of
underdiagnosis by machine learning algorithms [20.50071537200745]
Seyed-Kalantariらは、3つの胸部X線データセットで訓練されたモデルが偽陽性率の差をもたらすことを発見した。
この研究は、これらのモデルが体系的な下垂体手術を展示し、潜在的に増幅していると結論付けている。
論文 参考訳(メタデータ) (2022-01-19T20:51:38Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - On the Efficacy of Adversarial Data Collection for Question Answering:
Results from a Large-Scale Randomized Study [65.17429512679695]
逆データ収集(ADC)では、人間の労働力がモデルとリアルタイムで対話し、誤った予測を誘発する例を作成しようとする。
ADCの直感的な魅力にも拘わらず、敵対的データセットのトレーニングがより堅牢なモデルを生成するかどうかは不明だ。
論文 参考訳(メタデータ) (2021-06-02T00:48:33Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z) - Deep Mining External Imperfect Data for Chest X-ray Disease Screening [57.40329813850719]
我々は、外部のCXRデータセットを組み込むことで、不完全なトレーニングデータにつながると論じ、課題を提起する。
本研究は,多ラベル病分類問題を重み付き独立二分課題として分類する。
我々のフレームワークは、ドメインとラベルの相違を同時にモデル化し、対処し、優れた知識マイニング能力を実現する。
論文 参考訳(メタデータ) (2020-06-06T06:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。