論文の概要: DemOpts: Fairness corrections in COVID-19 case prediction models
- arxiv url: http://arxiv.org/abs/2405.09483v2
- Date: Mon, 20 May 2024 14:34:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 20:06:02.595907
- Title: DemOpts: Fairness corrections in COVID-19 case prediction models
- Title(参考訳): DemOpts:新型コロナウイルスのケース予測モデルにおける公正度補正
- Authors: Naman Awasthi, Saad Abrar, Daniel Smolyak, Vanessa Frias-Martinez,
- Abstract要約: 美術深層学習モデルの現状は、人種や民族間で大きく異なる予測誤差を出力することを示している。
本稿では,潜在的なバイアス付きデータセットに基づいてトレーニングされたディープラーニングに基づく予測モデルの公平性を高めるために,新しいデバイアス化手法であるDemOptsを提案する。
- 参考スコア(独自算出の注目度): 0.24999074238880484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: COVID-19 forecasting models have been used to inform decision making around resource allocation and intervention decisions e.g., hospital beds or stay-at-home orders. State of the art deep learning models often use multimodal data such as mobility or socio-demographic data to enhance COVID-19 case prediction models. Nevertheless, related work has revealed under-reporting bias in COVID-19 cases as well as sampling bias in mobility data for certain minority racial and ethnic groups, which could in turn affect the fairness of the COVID-19 predictions along race labels. In this paper, we show that state of the art deep learning models output mean prediction errors that are significantly different across racial and ethnic groups; and which could, in turn, support unfair policy decisions. We also propose a novel de-biasing method, DemOpts, to increase the fairness of deep learning based forecasting models trained on potentially biased datasets. Our results show that DemOpts can achieve better error parity that other state of the art de-biasing approaches, thus effectively reducing the differences in the mean error distributions across more racial and ethnic groups.
- Abstract(参考訳): 新型コロナウイルス(COVID-19)の予測モデルは、リソース割り当てや病院のベッド、在宅勤務の注文などの介入に関する意思決定を通知するために使われてきた。
最先端のディープラーニングモデルは、新型コロナウイルスのケース予測モデルを強化するために、モビリティや社会デコグラフィーデータなどのマルチモーダルデータを使用することが多い。
それにもかかわらず、関連する研究は、新型コロナウイルスの感染者の過少報告バイアスと、一部の少数民族や民族集団の移動データのサンプリングバイアスを明らかにしており、結果として、人種ラベルに沿った新型コロナウイルスの予測の公平性に影響を与える可能性がある。
本稿では、現在最先端のディープラーニングモデルを用いて、人種や民族間で大きく異なる予測誤差を出力し、不公平な政策決定を支援することができることを示す。
また、潜在的なバイアス付きデータセットに基づいてトレーニングされたディープラーニングに基づく予測モデルの公平性を高めるために、新しいデバイアス化手法であるDemOptsを提案する。
以上の結果から、DemOptsは、他の最先端の非バイアス化アプローチと同等のエラーを達成でき、これにより、より人種的および民族的グループ間の平均エラー分布の差異を効果的に低減できることが示された。
関連論文リスト
- Auditing the Fairness of COVID-19 Forecast Hub Case Prediction Models [0.24999074238880484]
COVID-19 Forecast Hubは、CDC(Centers for Disease Control and Prevention)が公式のCOVID-19通信に使用している。
Forecast Hubは予測精度のみにフォーカスすることで、提案されたモデルが社会的決定因子間で類似した性能を持つかどうかを評価できない。
統計的に有意な予測性能を示し,少数民族・少数民族の他,都市化の少ない地域では高い予測誤差がみられた。
論文 参考訳(メタデータ) (2024-05-17T21:07:19Z) - Assessing the Impact of Case Correction Methods on the Fairness of COVID-19 Predictive Models [0.24999074238880484]
新型コロナウイルス(COVID-19)の症例予測タスクへの影響について,2つの症例修正手法について検討した。
修正手法の1つは公平性を改善し、多数派ホワイト郡と多数派マイノリティ郡のパフォーマンスの差を減少させる。
これらの結果は混在しているが、補正手法が新型コロナウイルスの症例データに既存のバイアスを悪化させる可能性があることは明らかである。
論文 参考訳(メタデータ) (2024-05-16T16:26:21Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Is Your Model "MADD"? A Novel Metric to Evaluate Algorithmic Fairness
for Predictive Student Models [0.0]
本稿では,モデルの識別行動を分析するために,モデル絶対密度距離(MADD)を提案する。
オンライン授業における学生の成功を予測するための共通課題に対するアプローチを,いくつかの共通予測分類モデルを用いて評価した。
論文 参考訳(メタデータ) (2023-05-24T16:55:49Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - A fairness assessment of mobility-based COVID-19 case prediction models [0.0]
予測モデルのトレーニングに使用されるモビリティデータのバイアスが、特定の人口集団に対して不当に精度の低い予測に繋がる可能性があるという仮説を検証した。
特に、モデルは大きく、高度に教育され、富裕な若者、都市、非黒人が支配する郡を好む傾向にある。
論文 参考訳(メタデータ) (2022-10-08T03:43:51Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Combining Graph Neural Networks and Spatio-temporal Disease Models to
Predict COVID-19 Cases in Germany [0.0]
いくつかの専門家は、新型コロナウイルスの拡散を説明するために人間の移動性を考慮する必要性を求めた。
ほとんどの統計モデルや疫学モデルでは、人間の移動性を符号化するデータを含む非構造化データソースを直接組み込むことはできない。
本稿では,両研究方向のトレードオフを提案し,統計回帰モデルと機械学習モデルの利点を組み合わせた新しい学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-03T16:39:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。