論文の概要: Unmasking Bias in AI: A Systematic Review of Bias Detection and
Mitigation Strategies in Electronic Health Record-based Models
- arxiv url: http://arxiv.org/abs/2310.19917v2
- Date: Tue, 6 Feb 2024 05:04:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 19:48:58.513383
- Title: Unmasking Bias in AI: A Systematic Review of Bias Detection and
Mitigation Strategies in Electronic Health Record-based Models
- Title(参考訳): aiにおける非マスクバイアス:電子健康記録モデルにおけるバイアス検出と緩和戦略の体系的レビュー
- Authors: Feng Chen, Liqin Wang, Julie Hong, Jiaqi Jiang, Li Zhou
- Abstract要約: 人工知能を電子健康記録と共に活用することは、医療を改善する変革の可能性を秘めている。
しかし、医療格差を悪化させるAIのバイアスに対処することは見過ごせない。
本研究では,EHRデータを用いたAIモデルにおいて,多様なバイアスを検出・緩和する手法について検討する。
- 参考スコア(独自算出の注目度): 6.7598257064537055
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Objectives: Leveraging artificial intelligence (AI) in conjunction with
electronic health records (EHRs) holds transformative potential to improve
healthcare. Yet, addressing bias in AI, which risks worsening healthcare
disparities, cannot be overlooked. This study reviews methods to detect and
mitigate diverse forms of bias in AI models developed using EHR data. Methods:
We conducted a systematic review following the Preferred Reporting Items for
Systematic Reviews and Meta-analyses (PRISMA) guidelines, analyzing articles
from PubMed, Web of Science, and IEEE published between January 1, 2010, and
Dec 17, 2023. The review identified key biases, outlined strategies for
detecting and mitigating bias throughout the AI model development process, and
analyzed metrics for bias assessment. Results: Of the 450 articles retrieved,
20 met our criteria, revealing six major bias types: algorithmic, confounding,
implicit, measurement, selection, and temporal. The AI models were primarily
developed for predictive tasks in healthcare settings. Four studies
concentrated on the detection of implicit and algorithmic biases employing
fairness metrics like statistical parity, equal opportunity, and predictive
equity. Sixty proposed various strategies for mitigating biases, especially
targeting implicit and selection biases. These strategies, evaluated through
both performance (e.g., accuracy, AUROC) and fairness metrics, predominantly
involved data collection and preprocessing techniques like resampling,
reweighting, and transformation. Discussion: This review highlights the varied
and evolving nature of strategies to address bias in EHR-based AI models,
emphasizing the urgent needs for the establishment of standardized,
generalizable, and interpretable methodologies to foster the creation of
ethical AI systems that promote fairness and equity in healthcare.
- Abstract(参考訳): 目的: 人工知能(AI)と電子健康記録(EHR)の併用は、医療を改善するための変革の可能性を秘めている。
しかし、医療格差を悪化させる危険性があるaiのバイアスに対処することは、見過ごせない。
本研究では,EHRデータを用いたAIモデルにおいて,多様なバイアスを検出・緩和する手法について検討する。
方法:2010年1月1日から2023年12月17日までに発行されたPubMed, Web of Science, IEEEの論文を解析し, システムレビュー・メタアナライズ(PRISMA)ガイドラインに従って, システムレビューを行った。
レビューでは、重要なバイアスを特定し、AIモデル開発プロセス全体でバイアスを検出し緩和するための戦略を概説し、バイアス評価のためのメトリクスを分析した。
結果: 検索した450項目のうち20項目が基準を満たし,アルゴリズム,コンファウンディング,暗黙的,測定,選択,時間的,6つの主要なバイアスタイプを明らかにした。
AIモデルは、主に医療設定の予測タスクのために開発された。
4つの研究は、統計的パリティ、平等機会、予測エクイティといった公正度指標を用いた暗黙的偏見とアルゴリズム的偏見の検出に焦点を当てた。
sixtyはバイアスを緩和するための様々な戦略を提案し、特に暗黙のバイアスと選択のバイアスをターゲットとした。
これらの戦略は、パフォーマンス(例えば、精度、AUROC)と公正度の両方で評価され、主にデータ収集と再サンプリング、再重み付け、変換といった前処理技術に関わっている。
議論: このレビューは、EHRベースのAIモデルにおけるバイアスに対処する戦略の多様かつ進化的な性質を強調し、医療における公正性と株式を促進する倫理的AIシステムの構築を促進するための標準化された、一般化可能な、解釈可能な方法論の確立に対する緊急のニーズを強調している。
関連論文リスト
- A survey of recent methods for addressing AI fairness and bias in
biomedicine [48.46929081146017]
人工知能システムは、人種や性別に基づくような社会的不平等を永続するか、偏見を示すことができる。
バイオメディカル自然言語処理 (NLP) やコンピュータビジョン (CV) の分野での様々な脱バイアス法に関する最近の論文を調査した。
我々は,2018年1月から2023年12月にかけて,複数のキーワードの組み合わせを用いて,PubMed,ACMデジタルライブラリ,IEEE Xploreに関する文献検索を行った。
バイオメディシンに応用可能な一般領域からの他の方法について検討し, バイアスに対処し, 公平性を向上する方法について検討した。
論文 参考訳(メタデータ) (2024-02-13T06:38:46Z) - Detecting algorithmic bias in medical-AI models using trees [7.939586935057782]
本稿では,医療AI意思決定支援システムにおけるアルゴリズムバイアスの領域を検出するための革新的な枠組みを提案する。
本手法は,医学・AIモデルにおける潜在的なバイアスを,特に敗血症予測の文脈で効果的に同定する。
論文 参考訳(メタデータ) (2023-12-05T18:47:34Z) - An AI-Guided Data Centric Strategy to Detect and Mitigate Biases in
Healthcare Datasets [32.25265709333831]
我々は、小さなサンプルサイズ(AEquity)で異なるグループをいかに容易に学習するかを調査することによって、データセットバイアスを評価するために、データ中心、モデルに依存しないタスク非依存のアプローチを生成する。
次に、サブポピュレーション全体にわたるAEq値の体系的分析を適用し、医療における2つの既知の事例において、人種的偏見の特定と顕在化を図った。
AEqは、医療データセットのバイアスを診断し、修正することで、エクイティの前進に適用できる、新しく広く適用可能なメトリクスである。
論文 参考訳(メタデータ) (2023-11-06T17:08:41Z) - Towards objective and systematic evaluation of bias in artificial intelligence for medical imaging [2.0890189482817165]
医療画像におけるバイアスがAIモデルに与える影響を調査するための新しい分析フレームワークを提案する。
医用画像AIの偏りを評価するために, サイリコ試験の制御を行うためのこのフレームワークを開発し, テストした。
論文 参考訳(メタデータ) (2023-11-03T01:37:28Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z) - Hemogram Data as a Tool for Decision-making in COVID-19 Management:
Applications to Resource Scarcity Scenarios [62.997667081978825]
新型コロナウイルス(COVID-19)のパンデミックは世界中の緊急対応システムに挑戦している。
本研究は, 症状患者の血液検査データから得られた機械学習モデルについて述べる。
提案されたモデルでは、新型コロナウイルスqRT-PCRの結果を、高い精度、感度、特異性で症状のある個人に予測することができる。
論文 参考訳(メタデータ) (2020-05-10T01:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。