論文の概要: Unmasking Bias and Inequities: A Systematic Review of Bias Detection and
Mitigation in Healthcare Artificial Intelligence Using Electronic Health
Records
- arxiv url: http://arxiv.org/abs/2310.19917v1
- Date: Mon, 30 Oct 2023 18:29:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 18:02:25.478678
- Title: Unmasking Bias and Inequities: A Systematic Review of Bias Detection and
Mitigation in Healthcare Artificial Intelligence Using Electronic Health
Records
- Title(参考訳): 非マスキングバイアスと不平等--電子健康記録を用いた医療用人工知能におけるバイアス検出と緩和の体系的レビュー
- Authors: Feng Chen, Liqin Wang, Julie Hong, Jiaqi Jiang, Li Zhou
- Abstract要約: 本研究では,EHRデータを用いたAI研究におけるバイアスに対処する文献を体系的にレビューすることを目的とする。
6つの主要なバイアスタイプを定義し、バイアス処理における既存のアプローチを要約しました。
- 参考スコア(独自算出の注目度): 6.7598257064537055
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Objectives: Artificial intelligence (AI) applications utilizing electronic
health records (EHRs) have gained popularity, but they also introduce various
types of bias. This study aims to systematically review the literature that
address bias in AI research utilizing EHR data. Methods: A systematic review
was conducted following the Preferred Reporting Items for Systematic Reviews
and Meta-analyses (PRISMA) guideline. We retrieved articles published between
January 1, 2010, and October 31, 2022, from PubMed, Web of Science, and the
Institute of Electrical and Electronics Engineers. We defined six major types
of bias and summarized the existing approaches in bias handling. Results: Out
of the 252 retrieved articles, 20 met the inclusion criteria for the final
review. Five out of six bias were covered in this review: eight studies
analyzed selection bias; six on implicit bias; five on confounding bias; four
on measurement bias; two on algorithmic bias. For bias handling approaches, ten
studies identified bias during model development, while seventeen presented
methods to mitigate the bias. Discussion: Bias may infiltrate the AI
application development process at various stages. Although this review
discusses methods for addressing bias at different development stages, there is
room for implementing additional effective approaches. Conclusion: Despite
growing attention to bias in healthcare AI, research using EHR data on this
topic is still limited. Detecting and mitigating AI bias with EHR data
continues to pose challenges. Further research is needed to raise a
standardized method that is generalizable and interpretable to detect, mitigate
and evaluate bias in medical AI.
- Abstract(参考訳): 目的: 電子健康記録(EHR)を利用した人工知能(AI)応用が普及しているが、様々なバイアスも導入されている。
本研究では,EHRデータを用いたAI研究におけるバイアスに対処する文献を体系的にレビューすることを目的とする。
方法: 組織的レビューとメタ分析(prisma)ガイドラインに対して, 望ましい報告項目に従って体系的レビューを行った。
我々は,2010年1月1日から2022年10月31日までにPubMed, Web of Science, Institute of Electrical and Electronics Engineersから論文を検索した。
バイアスの主なタイプを6つ定義し、バイアス処理における既存のアプローチをまとめました。
結果: 検索された252記事中20項目が最終レビューの包含基準を満たした。
8つの研究が選択バイアスを分析し、6つは暗黙のバイアス、5つは共起バイアス、4つは計測バイアス、2つはアルゴリズムバイアスを分析。
バイアスハンドリングアプローチについては、モデル開発中のバイアスを10の研究で特定し、バイアスを軽減する方法を提示した。
議論: バイアスはさまざまな段階でAIアプリケーション開発プロセスに浸透する可能性がある。
本稿では, 異なる開発段階におけるバイアスに対処する手法について考察するが, さらなる効果的なアプローチを実現する余地がある。
結論: 医療AIの偏見に注目が集まる中、このトピックに関するEHRデータを用いた研究はまだ限られている。
EHRデータによるAIバイアスの検出と緩和は、引き続き課題となっている。
医学的aiにおけるバイアスの検出、緩和、評価を一般化し、解釈可能な標準化された方法を開発するには、さらなる研究が必要である。
関連論文リスト
- A survey of recent methods for addressing AI fairness and bias in
biomedicine [48.46929081146017]
人工知能システムは、人種や性別に基づくような社会的不平等を永続するか、偏見を示すことができる。
バイオメディカル自然言語処理 (NLP) やコンピュータビジョン (CV) の分野での様々な脱バイアス法に関する最近の論文を調査した。
我々は,2018年1月から2023年12月にかけて,複数のキーワードの組み合わせを用いて,PubMed,ACMデジタルライブラリ,IEEE Xploreに関する文献検索を行った。
バイオメディシンに応用可能な一般領域からの他の方法について検討し, バイアスに対処し, 公平性を向上する方法について検討した。
論文 参考訳(メタデータ) (2024-02-13T06:38:46Z) - Detecting algorithmic bias in medical-AI models using trees [7.939586935057782]
本稿では,医療AI意思決定支援システムにおけるアルゴリズムバイアスの領域を検出するための革新的な枠組みを提案する。
本手法は,医学・AIモデルにおける潜在的なバイアスを,特に敗血症予測の文脈で効果的に同定する。
論文 参考訳(メタデータ) (2023-12-05T18:47:34Z) - An AI-Guided Data Centric Strategy to Detect and Mitigate Biases in
Healthcare Datasets [32.25265709333831]
我々は、小さなサンプルサイズ(AEquity)で異なるグループをいかに容易に学習するかを調査することによって、データセットバイアスを評価するために、データ中心、モデルに依存しないタスク非依存のアプローチを生成する。
次に、サブポピュレーション全体にわたるAEq値の体系的分析を適用し、医療における2つの既知の事例において、人種的偏見の特定と顕在化を図った。
AEqは、医療データセットのバイアスを診断し、修正することで、エクイティの前進に適用できる、新しく広く適用可能なメトリクスである。
論文 参考訳(メタデータ) (2023-11-06T17:08:41Z) - Towards objective and systematic evaluation of bias in artificial intelligence for medical imaging [2.0890189482817165]
医療画像におけるバイアスがAIモデルに与える影響を調査するための新しい分析フレームワークを提案する。
医用画像AIの偏りを評価するために, サイリコ試験の制御を行うためのこのフレームワークを開発し, テストした。
論文 参考訳(メタデータ) (2023-11-03T01:37:28Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z) - Hemogram Data as a Tool for Decision-making in COVID-19 Management:
Applications to Resource Scarcity Scenarios [62.997667081978825]
新型コロナウイルス(COVID-19)のパンデミックは世界中の緊急対応システムに挑戦している。
本研究は, 症状患者の血液検査データから得られた機械学習モデルについて述べる。
提案されたモデルでは、新型コロナウイルスqRT-PCRの結果を、高い精度、感度、特異性で症状のある個人に予測することができる。
論文 参考訳(メタデータ) (2020-05-10T01:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。