論文の概要: Machine Learning and Public Health: Identifying and Mitigating Algorithmic Bias through a Systematic Review
- arxiv url: http://arxiv.org/abs/2510.14669v1
- Date: Thu, 16 Oct 2025 13:24:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.872887
- Title: Machine Learning and Public Health: Identifying and Mitigating Algorithmic Bias through a Systematic Review
- Title(参考訳): 機械学習と公衆衛生: システムレビューによるアルゴリズムバイアスの同定と修正
- Authors: Sara Altamirano, Arjan Vreeken, Sennay Ghebreab,
- Abstract要約: 機械学習(ML)におけるアルゴリズムバイアスは、既存の健康格差を必然的に補強する可能性がある。
本稿では,2021年から2025年までのオランダの公衆衛生ML研究において,アルゴリズムバイアスの同定,議論,報告に関する体系的な文献レビューを行う。
- 参考スコア(独自算出の注目度): 3.4137115855910767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) promises to revolutionize public health through improved surveillance, risk stratification, and resource allocation. However, without systematic attention to algorithmic bias, ML may inadvertently reinforce existing health disparities. We present a systematic literature review of algorithmic bias identification, discussion, and reporting in Dutch public health ML research from 2021 to 2025. To this end, we developed the Risk of Algorithmic Bias Assessment Tool (RABAT) by integrating elements from established frameworks (Cochrane Risk of Bias, PROBAST, Microsoft Responsible AI checklist) and applied it to 35 peer-reviewed studies. Our analysis reveals pervasive gaps: although data sampling and missing data practices are well documented, most studies omit explicit fairness framing, subgroup analyses, and transparent discussion of potential harms. In response, we introduce a four-stage fairness-oriented framework called ACAR (Awareness, Conceptualization, Application, Reporting), with guiding questions derived from our systematic literature review to help researchers address fairness across the ML lifecycle. We conclude with actionable recommendations for public health ML practitioners to consistently consider algorithmic bias and foster transparency, ensuring that algorithmic innovations advance health equity rather than undermine it.
- Abstract(参考訳): 機械学習(ML)は、監視の改善、リスク階層化、リソース割り当てを通じて、公衆衛生に革命をもたらすことを約束する。
しかし、アルゴリズムバイアスに体系的な注意を払わずに、MLは必然的に既存の健康格差を補強する可能性がある。
本稿では,2021年から2025年までのオランダの公衆衛生ML研究において,アルゴリズムバイアスの同定,議論,報告に関する体系的な文献レビューを行う。
この目的のために、確立されたフレームワーク(バイアスのCochrane Risk of Bias, PROBAST, Microsoft Responsible AI Checklist)の要素を統合することにより、アルゴリズムバイアス評価ツール(RABAT)を開発し、35のピアレビュー研究に適用した。
データサンプリングとデータプラクティスの欠如は十分に文書化されているが、ほとんどの研究は、明示的な公正なフレーミング、サブグループ分析、潜在的な害についての透明な議論を省略している。
これに対し、我々はACAR(Awareness, Conceptualization, Application, Reporting)と呼ばれる4段階のフェアネス指向のフレームワークを導入し、研究者がMLライフサイクル全体にわたってフェアネスに対処する上で、体系的な文献レビューから導かれる疑問を導いた。
我々は、公共衛生ML実践者に対して、アルゴリズムバイアスを一貫して考慮し、透明性を向上し、アルゴリズムイノベーションがヘルスエクイティを損なうのではなく、前進させることを確実にするよう、行動可能な勧告で締めくくります。
関連論文リスト
- Whither Bias Goes, I Will Go: An Integrative, Systematic Review of Algorithmic Bias Mitigation [1.0470286407954037]
機械学習(ML)モデルは不平等をバイアスし、持続し、悪化させる可能性があるという懸念が高まっている。
本稿では,MLアセスメントを開発し,バイアス軽減手法を適用した4段階モデルを提案する。
論文 参考訳(メタデータ) (2024-10-21T02:32:14Z) - Exploring Bias and Prediction Metrics to Characterise the Fairness of Machine Learning for Equity-Centered Public Health Decision-Making: A Narrative Review [2.7757900645956943]
アルゴリズムバイアスの包括的な理解、予測された人口健康結果の体系的なエラー、マシンラーニングの公衆衛生アプリケーションによる理解が欠如している。
このレビューは、エクイティの観点から、公衆衛生に関するMLの評価フレームワークの形式化に役立ちます。
論文 参考訳(メタデータ) (2024-08-23T14:47:10Z) - Unmasking Bias in AI: A Systematic Review of Bias Detection and Mitigation Strategies in Electronic Health Record-based Models [6.300835344100545]
人工知能を電子健康記録と共に活用することは、医療を改善する変革の可能性を秘めている。
しかし、医療格差を悪化させるAIのバイアスに対処することは見過ごせない。
本研究では,EHRデータを用いたAIモデルにおいて,多様なバイアスを検出・緩和する手法について検討する。
論文 参考訳(メタデータ) (2023-10-30T18:29:15Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Auditing Algorithmic Fairness in Machine Learning for Health with
Severity-Based LOGAN [70.76142503046782]
臨床予測タスクにおいて,局所バイアスを自動検出するSLOGANを用いて,機械学習ベースの医療ツールを補足することを提案する。
LOGANは、患者の重症度と過去の医療史における集団バイアス検出を文脈化することにより、既存のツールであるLOcal Group biAs detectioNに適応する。
SLOGANは, クラスタリング品質を維持しながら, 患者群の75%以上において, SLOGANよりも高い公平性を示す。
論文 参考訳(メタデータ) (2022-11-16T08:04:12Z) - ImDrug: A Benchmark for Deep Imbalanced Learning in AI-aided Drug
Discovery [79.08833067391093]
現実世界の医薬品のデータセットは、しばしば高度に不均衡な分布を示す。
ImDrugはオープンソースのPythonライブラリを備えたベンチマークで、4つの不均衡設定、11のAI対応データセット、54の学習タスク、16のベースラインアルゴリズムで構成されています。
ドラッグ発見パイプラインの幅広い範囲にまたがる問題やソリューションに対して、アクセス可能でカスタマイズ可能なテストベッドを提供する。
論文 参考訳(メタデータ) (2022-09-16T13:35:57Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。