論文の概要: Exploring Bias and Prediction Metrics to Characterise the Fairness of Machine Learning for Equity-Centered Public Health Decision-Making: A Narrative Review
- arxiv url: http://arxiv.org/abs/2408.13295v2
- Date: Mon, 2 Sep 2024 17:00:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-04 16:32:02.543991
- Title: Exploring Bias and Prediction Metrics to Characterise the Fairness of Machine Learning for Equity-Centered Public Health Decision-Making: A Narrative Review
- Title(参考訳): エクイティ中心の公衆衛生決定のための機械学習の公正性を特徴付けるバイアスと予測指標の探索-ナラティブレビュー
- Authors: Shaina Raza, Arash Shaban-Nejad, Elham Dolatabadi, Hiroshi Mamiya,
- Abstract要約: アルゴリズムバイアスの包括的な理解、予測された人口健康結果の体系的なエラー、マシンラーニングの公衆衛生アプリケーションによる理解が欠如している。
このレビューは、エクイティの観点から、公衆衛生に関するMLの評価フレームワークの形式化に役立ちます。
- 参考スコア(独自算出の注目度): 2.7757900645956943
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: The rapid advancement of Machine Learning (ML) represents novel opportunities to enhance public health research, surveillance, and decision-making. However, there is a lack of comprehensive understanding of algorithmic bias, systematic errors in predicted population health outcomes, resulting from the public health application of ML. The objective of this narrative review is to explore the types of bias generated by ML and quantitative metrics to assess these biases. Methods : We performed search on PubMed, MEDLINE, IEEE (Institute of Electrical and Electronics Engineers), ACM (Association for Computing Machinery) Digital Library, Science Direct, and Springer Nature. We used keywords to identify studies describing types of bias and metrics to measure these in the domain of ML and public and population health published in English between 2008 and 2023, inclusive. Results: A total of 72 articles met the inclusion criteria. Our review identified the commonly described types of bias and quantitative metrics to assess these biases from an equity perspective. Conclusion : The review will help formalize the evaluation framework for ML on public health from an equity perspective.
- Abstract(参考訳): 背景: 機械学習(ML)の急速な進歩は、公衆衛生研究、監視、意思決定を強化する新しい機会を表している。
しかし、アルゴリズムバイアス、予測された人口健康結果の体系的誤り、そしてMLの公衆衛生適用による包括的理解の欠如がある。
この物語レビューの目的は、これらのバイアスを評価するために、MLが生み出すバイアスの種類と定量的なメトリクスを調べることである。
方法: PubMed, MEDLINE, IEEE (Institute of Electrical and Electronics Engineers), ACM (Association for Computing Machinery) Digital Library, Science Direct, Springer Natureの検索を行った。
我々は,2008年から2023年にかけて英語で出版されたML領域と公衆および人口の健康状態の指標として,バイアスの種類や指標を記述した研究をキーワードとして用いた。
結果:72項目が包括的基準を満たした。
私たちのレビューでは、これらのバイアスを株式の観点から評価するために、一般的に説明されるバイアスの種類と量的指標を特定しました。
結論: このレビューは, 公衆衛生に関するMLの評価枠組みを, 公平の観点から定式化する上で有効である。
関連論文リスト
- Fairness in Computational Innovations: Identifying Bias in Substance Use Treatment Length of Stay Prediction Models with Policy Implications [0.477529483515826]
予測機械学習(英: Predictive Machine Learning, ML)は、医学的意思決定を強化する計算技術である。
しかし、社会的バイアスはそのようなモデルにエンコードすることができ、不利なグループの健康結果に不注意に影響を及ぼす懸念を提起する。
この問題は、物質使用障害(SUD)の治療の文脈において特に重要であり、予測モデルのバイアスは、非常に脆弱な患者の回復に大きな影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2024-12-08T06:47:23Z) - Machine Learning Approaches for Mental Illness Detection on Social Media: A Systematic Review of Biases and Methodological Challenges [0.037693031068634524]
本稿では,ソーシャルメディアデータを用いた精神疾患検出のための機械学習モデルについて検討する。
機械学習ライフサイクル全体で発生するバイアスと方法論上の課題を強調します。
これらの課題を克服することで、将来の研究はソーシャルメディア上での抑うつ検出のためのより堅牢で一般化可能なMLモデルを開発することができる。
論文 参考訳(メタデータ) (2024-10-21T17:05:50Z) - Comprehensive Equity Index (CEI): Definition and Application to Bias Evaluation in Biometrics [47.762333925222926]
本稿では,機械学習モデルのバイアス行動の定量化のための新しい指標を提案する。
顔認識システムの運用評価に焦点をあて,適用する。
論文 参考訳(メタデータ) (2024-09-03T14:19:38Z) - A survey of recent methods for addressing AI fairness and bias in
biomedicine [48.46929081146017]
人工知能システムは、人種や性別に基づくような社会的不平等を永続するか、偏見を示すことができる。
バイオメディカル自然言語処理 (NLP) やコンピュータビジョン (CV) の分野での様々な脱バイアス法に関する最近の論文を調査した。
我々は,2018年1月から2023年12月にかけて,複数のキーワードの組み合わせを用いて,PubMed,ACMデジタルライブラリ,IEEE Xploreに関する文献検索を行った。
バイオメディシンに応用可能な一般領域からの他の方法について検討し, バイアスに対処し, 公平性を向上する方法について検討した。
論文 参考訳(メタデータ) (2024-02-13T06:38:46Z) - Unmasking Bias in AI: A Systematic Review of Bias Detection and Mitigation Strategies in Electronic Health Record-based Models [6.300835344100545]
人工知能を電子健康記録と共に活用することは、医療を改善する変革の可能性を秘めている。
しかし、医療格差を悪化させるAIのバイアスに対処することは見過ごせない。
本研究では,EHRデータを用いたAIモデルにおいて,多様なバイアスを検出・緩和する手法について検討する。
論文 参考訳(メタデータ) (2023-10-30T18:29:15Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Connecting Fairness in Machine Learning with Public Health Equity [0.0]
データとモデル設計のバイアスは、特定の保護されたグループの格差をもたらし、医療における既存の不平等を増幅します。
本研究は,MLフェアネスに関する基礎文献を要約し,データとモデルのバイアスを特定し緩和するための枠組みを提案する。
ケーススタディは、このフレームワークがこれらのバイアスを防ぎ、公衆衛生における公平で公平なMLモデルの必要性を強調するためにどのように使用できるかを示している。
論文 参考訳(メタデータ) (2023-04-08T10:21:49Z) - Auditing Algorithmic Fairness in Machine Learning for Health with
Severity-Based LOGAN [70.76142503046782]
臨床予測タスクにおいて,局所バイアスを自動検出するSLOGANを用いて,機械学習ベースの医療ツールを補足することを提案する。
LOGANは、患者の重症度と過去の医療史における集団バイアス検出を文脈化することにより、既存のツールであるLOcal Group biAs detectioNに適応する。
SLOGANは, クラスタリング品質を維持しながら, 患者群の75%以上において, SLOGANよりも高い公平性を示す。
論文 参考訳(メタデータ) (2022-11-16T08:04:12Z) - Social Biases in Automatic Evaluation Metrics for NLG [53.76118154594404]
本稿では,単語埋め込みアソシエーションテスト(WEAT)と文埋め込みアソシエーションテスト(SEAT)に基づく評価手法を提案する。
我々は、画像キャプションやテキスト要約タスクにおける性別バイアスの影響を調査するために、性別対応メタ評価データセットを構築した。
論文 参考訳(メタデータ) (2022-10-17T08:55:26Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。