論文の概要: Connecting Fairness in Machine Learning with Public Health Equity
- arxiv url: http://arxiv.org/abs/2304.04761v1
- Date: Sat, 8 Apr 2023 10:21:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 17:23:06.861884
- Title: Connecting Fairness in Machine Learning with Public Health Equity
- Title(参考訳): 機械学習の公平性と公衆衛生の公平性
- Authors: Shaina Raza
- Abstract要約: データとモデル設計のバイアスは、特定の保護されたグループの格差をもたらし、医療における既存の不平等を増幅します。
本研究は,MLフェアネスに関する基礎文献を要約し,データとモデルのバイアスを特定し緩和するための枠組みを提案する。
ケーススタディは、このフレームワークがこれらのバイアスを防ぎ、公衆衛生における公平で公平なMLモデルの必要性を強調するためにどのように使用できるかを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) has become a critical tool in public health, offering
the potential to improve population health, diagnosis, treatment selection, and
health system efficiency. However, biases in data and model design can result
in disparities for certain protected groups and amplify existing inequalities
in healthcare. To address this challenge, this study summarizes seminal
literature on ML fairness and presents a framework for identifying and
mitigating biases in the data and model. The framework provides guidance on
incorporating fairness into different stages of the typical ML pipeline, such
as data processing, model design, deployment, and evaluation. To illustrate the
impact of biases in data on ML models, we present examples that demonstrate how
systematic biases can be amplified through model predictions. These case
studies suggest how the framework can be used to prevent these biases and
highlight the need for fair and equitable ML models in public health. This work
aims to inform and guide the use of ML in public health towards a more ethical
and equitable outcome for all populations.
- Abstract(参考訳): 機械学習(ML)は公衆衛生にとって重要なツールとなり、人口の健康、診断、治療の選択、健康システム効率を改善する可能性がある。
しかし、データとモデル設計のバイアスは、特定の保護されたグループの格差をもたらし、医療における既存の不平等を増幅する。
この課題に対処するために,MLフェアネスに関する学術文献を要約し,データとモデルのバイアスを特定し緩和するための枠組みを提案する。
このフレームワークは、データ処理、モデル設計、デプロイメント、評価など、典型的なMLパイプラインのさまざまなステージに公正さを組み込むためのガイダンスを提供する。
MLモデルにおけるデータへのバイアスの影響を説明するために,モデル予測による体系的バイアスの増幅方法を示す。
これらのケーススタディは、これらのバイアスを防止し、公衆衛生における公平で公平なMLモデルの必要性を強調するために、このフレームワークをどのように利用できるかを示唆している。
この研究は、すべての住民にとってより倫理的で公平な結果に向けて、公衆衛生におけるMLの使用を通知し、指導することを目的としている。
関連論文リスト
- Exploring Bias and Prediction Metrics to Characterise the Fairness of Machine Learning for Equity-Centered Public Health Decision-Making: A Narrative Review [2.7757900645956943]
アルゴリズムバイアスの包括的な理解、予測された人口健康結果の体系的なエラー、マシンラーニングの公衆衛生アプリケーションによる理解が欠如している。
このレビューは、エクイティの観点から、公衆衛生に関するMLの評価フレームワークの形式化に役立ちます。
論文 参考訳(メタデータ) (2024-08-23T14:47:10Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - What is Fair? Defining Fairness in Machine Learning for Health [0.6311610943467981]
本稿では,健康のための機械学習におけるフェアネスの概念について検討する。
本研究は、一般に使われている公正度指標の概要と、公開電子健康記録データセットのケーススタディによる議論を補完するものである。
また、健康の公平性を定義する上での現在の課題と機会を強調し、今後の研究の展望についても論じる。
論文 参考訳(メタデータ) (2024-06-13T16:41:30Z) - Cross-Care: Assessing the Healthcare Implications of Pre-training Data on Language Model Bias [3.455189439319919]
大規模な言語モデル(LLM)におけるバイアスと実世界の知識を評価するための最初のベンチマークフレームワークであるCross-Careを紹介する。
ThePile$のような事前学習コーパスに埋め込まれた人口統計バイアスがLLMの出力にどのように影響するかを評価する。
以上の結果から, LLMの病状有病率と, 集団間での実際の病状有病率との相違が明らかとなった。
論文 参考訳(メタデータ) (2024-05-09T02:33:14Z) - Survey of Social Bias in Vision-Language Models [65.44579542312489]
調査の目的は、NLP、CV、VLをまたいだ事前学習モデルにおける社会バイアス研究の類似点と相違点について、研究者に高いレベルの洞察を提供することである。
ここで提示された発見とレコメンデーションはMLコミュニティの利益となり、公平でバイアスのないAIモデルの開発を促進する。
論文 参考訳(メタデータ) (2023-09-24T15:34:56Z) - Fairness in Machine Learning meets with Equity in Healthcare [6.842248432925292]
本研究では,データやモデルのバイアスを識別・緩和する人工知能フレームワークを提案する。
ケーススタディでは、データの体系的バイアスがモデル予測における増幅バイアスにどのように寄与するかを示す。
今後の研究は、提案するMLフレームワークを実世界の臨床環境でテストし、検証することを目的としており、その影響が健康株の促進に与える影響を評価する。
論文 参考訳(メタデータ) (2023-05-11T14:25:34Z) - Auditing Algorithmic Fairness in Machine Learning for Health with
Severity-Based LOGAN [70.76142503046782]
臨床予測タスクにおいて,局所バイアスを自動検出するSLOGANを用いて,機械学習ベースの医療ツールを補足することを提案する。
LOGANは、患者の重症度と過去の医療史における集団バイアス検出を文脈化することにより、既存のツールであるLOcal Group biAs detectioNに適応する。
SLOGANは, クラスタリング品質を維持しながら, 患者群の75%以上において, SLOGANよりも高い公平性を示す。
論文 参考訳(メタデータ) (2022-11-16T08:04:12Z) - Fairness and bias correction in machine learning for depression
prediction: results from four study populations [3.3136009643108038]
本稿では,うつ病の予測を目的とした機械学習モデルにおけるバイアスの体系的研究について述べる。
標準MLアプローチは、定期的にバイアスのある振る舞いを示す。
また、標準法と自己のポストホック法の両方による緩和技術は、不公平なバイアスのレベルを低減するのに有効であることを示す。
論文 参考訳(メタデータ) (2022-11-10T03:53:17Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。