論文の概要: Detecting Dataset Bias in Medical AI: A Generalized and Modality-Agnostic Auditing Framework
- arxiv url: http://arxiv.org/abs/2503.09969v1
- Date: Thu, 13 Mar 2025 02:16:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:55:12.309625
- Title: Detecting Dataset Bias in Medical AI: A Generalized and Modality-Agnostic Auditing Framework
- Title(参考訳): 医療AIにおけるデータセットバイアスの検出 - 一般化されたモダリティに依存しない監査フレームワーク
- Authors: Nathan Drenkow, Mitchell Pavlak, Keith Harrigian, Ayah Zirikly, Adarsh Subbaswamy, Mathias Unberath,
- Abstract要約: 機械学習データセットの潜時バイアスは、トレーニング中に増幅され、テスト中に/または隠される。
本稿では,偏見源に関するターゲット仮説を生成するためのデータモダリティに依存しない監査フレームワークを提案する。
大規模医療データセットを解析することにより,本手法の適用可能性と価値を実証する。
- 参考スコア(独自算出の注目度): 8.520644988801243
- License:
- Abstract: Data-driven AI is establishing itself at the center of evidence-based medicine. However, reports of shortcomings and unexpected behavior are growing due to AI's reliance on association-based learning. A major reason for this behavior: latent bias in machine learning datasets can be amplified during training and/or hidden during testing. We present a data modality-agnostic auditing framework for generating targeted hypotheses about sources of bias which we refer to as Generalized Attribute Utility and Detectability-Induced bias Testing (G-AUDIT) for datasets. Our method examines the relationship between task-level annotations and data properties including protected attributes (e.g., race, age, sex) and environment and acquisition characteristics (e.g., clinical site, imaging protocols). G-AUDIT automatically quantifies the extent to which the observed data attributes may enable shortcut learning, or in the case of testing data, hide predictions made based on spurious associations. We demonstrate the broad applicability and value of our method by analyzing large-scale medical datasets for three distinct modalities and learning tasks: skin lesion classification in images, stigmatizing language classification in Electronic Health Records (EHR), and mortality prediction for ICU tabular data. In each setting, G-AUDIT successfully identifies subtle biases commonly overlooked by traditional qualitative methods that focus primarily on social and ethical objectives, underscoring its practical value in exposing dataset-level risks and supporting the downstream development of reliable AI systems. Our method paves the way for achieving deeper understanding of machine learning datasets throughout the AI development life-cycle from initial prototyping all the way to regulation, and creates opportunities to reduce model bias, enabling safer and more trustworthy AI systems.
- Abstract(参考訳): データ駆動型AIは、エビデンスベースの医療の中心に自らを確立している。
しかし、AIが連想に基づく学習に依存しているため、欠点や予期せぬ行動の報告が増えている。
機械学習データセットの潜在バイアスは、トレーニング中やテスト中に隠蔽される。
本稿では,データセットに対する一般化属性ユーティリティと検出可能性誘発バイアステスト(G-AUDIT)と呼ばれる,バイアス源のターゲット仮説を生成するためのデータモダリティ非依存監査フレームワークを提案する。
本手法は,課題レベルのアノテーションと保護属性(例えば,人種,年齢,性別)を含むデータ特性と環境,取得特性(例えば,臨床現場,画像プロトコル)との関係について検討する。
G-AUDITは、観測されたデータ属性がショートカット学習を可能にする範囲を自動で定量化する。
画像中の皮膚病変の分類,電子健康記録(EHR)における言語分類の厳格化,ICU表表データにおける死亡予測の3つの課題について,大規模医療データセットを解析し,本手法の適用性と価値を実証した。
それぞれの設定において、G-AUDITは、主に社会的および倫理的目的に焦点を当てた従来の定性的手法によって見過ごされる微妙な偏見をうまく識別し、データセットレベルのリスクを暴露し、信頼できるAIシステムの下流開発をサポートする実践的価値を強調する。
我々の手法は、初期のプロトタイピングから規制まで、AI開発ライフサイクル全体を通して機械学習データセットのより深い理解を実現するための手段を開拓し、モデルバイアスを減らす機会を生み出し、より安全で信頼性の高いAIシステムを可能にします。
関連論文リスト
- Ensuring Medical AI Safety: Explainable AI-Driven Detection and Mitigation of Spurious Model Behavior and Associated Data [14.991686165405959]
本稿では,データとモデルの両方の観点から,突発的行動を特定するための半自動フレームワークを提案する。
これにより、急激なデータポイントの検索と、関連する予測ルールを符号化するモデル回路の検出が可能になる。
4つの医療データセットを用いて,本フレームワークの適用性を示す。
論文 参考訳(メタデータ) (2025-01-23T16:39:09Z) - SUDO: a framework for evaluating clinical artificial intelligence systems without ground-truth annotations [3.7525007896336944]
我々は,基幹アノテーションを使わずにAIシステムを評価するためのフレームワークであるSUDOを紹介する。
我々は,SUDOがモデル性能の信頼できるプロキシになりうることを示し,信頼できない予測を識別する。
論文 参考訳(メタデータ) (2024-01-02T18:12:03Z) - Evaluating the Fairness of the MIMIC-IV Dataset and a Baseline
Algorithm: Application to the ICU Length of Stay Prediction [65.268245109828]
本稿では、MIMIC-IVデータセットを用いて、滞在時間を予測するXGBoostバイナリ分類モデルにおける公平性とバイアスについて検討する。
この研究は、人口統計属性にわたるデータセットのクラス不均衡を明らかにし、データ前処理と特徴抽出を採用する。
この論文は、偏見を緩和するための公正な機械学習技術と、医療専門家とデータサイエンティストの協力的な努力の必要性について結論付けている。
論文 参考訳(メタデータ) (2023-12-31T16:01:48Z) - An AI-Guided Data Centric Strategy to Detect and Mitigate Biases in
Healthcare Datasets [32.25265709333831]
我々は、小さなサンプルサイズ(AEquity)で異なるグループをいかに容易に学習するかを調査することによって、データセットバイアスを評価するために、データ中心、モデルに依存しないタスク非依存のアプローチを生成する。
次に、サブポピュレーション全体にわたるAEq値の体系的分析を適用し、医療における2つの既知の事例において、人種的偏見の特定と顕在化を図った。
AEqは、医療データセットのバイアスを診断し、修正することで、エクイティの前進に適用できる、新しく広く適用可能なメトリクスである。
論文 参考訳(メタデータ) (2023-11-06T17:08:41Z) - Data AUDIT: Identifying Attribute Utility- and Detectability-Induced
Bias in Task Models [8.420252576694583]
医用画像データセットの厳密で定量的なスクリーニングのための第1の手法を提案する。
提案手法は,データセット属性に関連するリスクを,検出性と実用性の観点から分解する。
本手法を用いて, ほぼ知覚不能なバイアス誘発アーティファクトを確実に同定するスクリーニング手法を提案する。
論文 参考訳(メタデータ) (2023-04-06T16:50:15Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - TRAPDOOR: Repurposing backdoors to detect dataset bias in machine
learning-based genomic analysis [15.483078145498085]
データセット内のグループの下位表現は、特定のグループの不正確な予測につながる可能性があるため、システム的識別問題を悪化させる可能性がある。
本稿では,ニューラルネットワークのバックドアであるTRAPDOORを提案する。
実世界のがんデータセットを用いて、すでに白人個人に対して存在するバイアスでデータセットを分析し、データセットにバイアスを人工的に導入する。
論文 参考訳(メタデータ) (2021-08-14T17:02:02Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。