論文の概要: Connecting Fairness in Machine Learning with Public Health Equity
- arxiv url: http://arxiv.org/abs/2304.04761v1
- Date: Sat, 8 Apr 2023 10:21:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 17:23:06.861884
- Title: Connecting Fairness in Machine Learning with Public Health Equity
- Title(参考訳): 機械学習の公平性と公衆衛生の公平性
- Authors: Shaina Raza
- Abstract要約: データとモデル設計のバイアスは、特定の保護されたグループの格差をもたらし、医療における既存の不平等を増幅します。
本研究は,MLフェアネスに関する基礎文献を要約し,データとモデルのバイアスを特定し緩和するための枠組みを提案する。
ケーススタディは、このフレームワークがこれらのバイアスを防ぎ、公衆衛生における公平で公平なMLモデルの必要性を強調するためにどのように使用できるかを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) has become a critical tool in public health, offering
the potential to improve population health, diagnosis, treatment selection, and
health system efficiency. However, biases in data and model design can result
in disparities for certain protected groups and amplify existing inequalities
in healthcare. To address this challenge, this study summarizes seminal
literature on ML fairness and presents a framework for identifying and
mitigating biases in the data and model. The framework provides guidance on
incorporating fairness into different stages of the typical ML pipeline, such
as data processing, model design, deployment, and evaluation. To illustrate the
impact of biases in data on ML models, we present examples that demonstrate how
systematic biases can be amplified through model predictions. These case
studies suggest how the framework can be used to prevent these biases and
highlight the need for fair and equitable ML models in public health. This work
aims to inform and guide the use of ML in public health towards a more ethical
and equitable outcome for all populations.
- Abstract(参考訳): 機械学習(ML)は公衆衛生にとって重要なツールとなり、人口の健康、診断、治療の選択、健康システム効率を改善する可能性がある。
しかし、データとモデル設計のバイアスは、特定の保護されたグループの格差をもたらし、医療における既存の不平等を増幅する。
この課題に対処するために,MLフェアネスに関する学術文献を要約し,データとモデルのバイアスを特定し緩和するための枠組みを提案する。
このフレームワークは、データ処理、モデル設計、デプロイメント、評価など、典型的なMLパイプラインのさまざまなステージに公正さを組み込むためのガイダンスを提供する。
MLモデルにおけるデータへのバイアスの影響を説明するために,モデル予測による体系的バイアスの増幅方法を示す。
これらのケーススタディは、これらのバイアスを防止し、公衆衛生における公平で公平なMLモデルの必要性を強調するために、このフレームワークをどのように利用できるかを示唆している。
この研究は、すべての住民にとってより倫理的で公平な結果に向けて、公衆衛生におけるMLの使用を通知し、指導することを目的としている。
関連論文リスト
- Survey of Social Bias in Vision-Language Models [65.44579542312489]
調査の目的は、NLP、CV、VLをまたいだ事前学習モデルにおける社会バイアス研究の類似点と相違点について、研究者に高いレベルの洞察を提供することである。
ここで提示された発見とレコメンデーションはMLコミュニティの利益となり、公平でバイアスのないAIモデルの開発を促進する。
論文 参考訳(メタデータ) (2023-09-24T15:34:56Z) - Improving Fairness in AI Models on Electronic Health Records: The Case
for Federated Learning Methods [0.0]
我々は、医療機関が連合学習パラダイムを通じて協力することで、バイアスの懸念を軽減する1つの可能なアプローチを示す。
本稿では,様々な公正度尺度に適合する,対向的偏りを伴う包括的FL手法とフェアアグリゲーション手法を提案する。
本手法は, 判定性能(精度)に最低限の影響を伴って, 有望な公平性を達成している。
論文 参考訳(メタデータ) (2023-05-19T02:03:49Z) - Fairness in Machine Learning meets with Equity in Healthcare [6.842248432925292]
本研究では,データやモデルのバイアスを識別・緩和する人工知能フレームワークを提案する。
ケーススタディでは、データの体系的バイアスがモデル予測における増幅バイアスにどのように寄与するかを示す。
今後の研究は、提案するMLフレームワークを実世界の臨床環境でテストし、検証することを目的としており、その影響が健康株の促進に与える影響を評価する。
論文 参考訳(メタデータ) (2023-05-11T14:25:34Z) - Privacy-preserving machine learning for healthcare: open challenges and
future perspectives [72.43506759789861]
医療におけるプライバシー保護機械学習(PPML)に関する最近の文献を概観する。
プライバシ保護トレーニングと推論・アズ・ア・サービスに重点を置いています。
このレビューの目的は、医療におけるプライベートかつ効率的なMLモデルの開発をガイドすることである。
論文 参考訳(メタデータ) (2023-03-27T19:20:51Z) - Auditing Algorithmic Fairness in Machine Learning for Health with
Severity-Based LOGAN [70.76142503046782]
臨床予測タスクにおいて,局所バイアスを自動検出するSLOGANを用いて,機械学習ベースの医療ツールを補足することを提案する。
LOGANは、患者の重症度と過去の医療史における集団バイアス検出を文脈化することにより、既存のツールであるLOcal Group biAs detectioNに適応する。
SLOGANは, クラスタリング品質を維持しながら, 患者群の75%以上において, SLOGANよりも高い公平性を示す。
論文 参考訳(メタデータ) (2022-11-16T08:04:12Z) - Fairness and bias correction in machine learning for depression
prediction: results from four study populations [3.3136009643108038]
本稿では,うつ病の予測を目的とした機械学習モデルにおけるバイアスの体系的研究について述べる。
標準MLアプローチは、定期的にバイアスのある振る舞いを示す。
また、標準法と自己のポストホック法の両方による緩和技術は、不公平なバイアスのレベルを低減するのに有効であることを示す。
論文 参考訳(メタデータ) (2022-11-10T03:53:17Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Fairness-aware Model-agnostic Positive and Unlabeled Learning [38.50536380390474]
フェアプル(FairPUL)という,フェアネスを意識したポジティブ・アンラベル学習手法を提案する。
2つの集団の個体を二分分類するために、同様の正の率と偽の正の率を達成することを目指している。
我々のフレームワークは、分類誤差と公正度の両方の観点から統計的に一貫性があることが証明されている。
論文 参考訳(メタデータ) (2022-06-19T08:04:23Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - MIMIC-IF: Interpretability and Fairness Evaluation of Deep Learning
Models on MIMIC-IV Dataset [15.436560770086205]
MIMIC-IV (Medical Information Mart for Intensive Care, Version IV) は,医療データセットとして最大規模である。
本研究では,データセット表現バイアスの包括的解析と,深層学習モデルの解釈可能性と予測フェアネスを用いて,病院内死亡率予測を行う。
論文 参考訳(メタデータ) (2021-02-12T20:28:06Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。