論文の概要: Quantifying Health Inequalities Induced by Data and AI Models
- arxiv url: http://arxiv.org/abs/2205.01066v2
- Date: Tue, 3 May 2022 08:17:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 01:49:44.474755
- Title: Quantifying Health Inequalities Induced by Data and AI Models
- Title(参考訳): データとAIモデルによる健康不平等の定量化
- Authors: Honghan Wu, Minhong Wang, Aneeta Sylolypavan, Sarah Wild
- Abstract要約: AI技術は、医療を含む重要な環境において、ますますテストされ、適用されています。
AIによる不平等の検出と緩和に効果的な方法がなければ、AIは善よりも害を受ける可能性がある。
本稿では,AIによる不等式の検出と定量化のための汎用的なアロケーション検出フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.9208828373290487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI technologies are being increasingly tested and applied in critical
environments including healthcare. Without an effective way to detect and
mitigate AI induced inequalities, AI might do more harm than good, potentially
leading to the widening of underlying inequalities. This paper proposes a
generic allocation-deterioration framework for detecting and quantifying AI
induced inequality. Specifically, AI induced inequalities are quantified as the
area between two allocation-deterioration curves. To assess the framework's
performance, experiments were conducted on ten synthetic datasets (N>33,000)
generated from HiRID - a real-world Intensive Care Unit (ICU) dataset, showing
its ability to accurately detect and quantify inequality proportionally to
controlled inequalities. Extensive analyses were carried out to quantify health
inequalities (a) embedded in two real-world ICU datasets; (b) induced by AI
models trained for two resource allocation scenarios. Results showed that
compared to men, women had up to 33% poorer deterioration in markers of
prognosis when admitted to HiRID ICUs. All four AI models assessed were shown
to induce significant inequalities (2.45% to 43.2%) for non-White compared to
White patients. The models exacerbated data embedded inequalities significantly
in 3 out of 8 assessments, one of which was >9 times worse.
The codebase is at https://github.com/knowlab/DAindex-Framework.
- Abstract(参考訳): AI技術はますますテストされ、医療を含む重要な環境に適用されている。
AIによって誘導される不平等を検出し緩和する効果的な方法がなければ、AIは善よりも害が大きい可能性がある。
本稿では,aiによる不等式の検出と定量化のための汎用的割当劣化フレームワークを提案する。
具体的には、AI誘起不等式を2つのアロケーション劣化曲線の間の領域として定量化する。
フレームワークの性能を評価するため,実世界集中ケアユニット(ICU)データセットであるHiRIDから生成された10種類の合成データセット(N>33,000)を用いて実験を行った。
健康の不平等を定量化するために広範な分析が行われた
(a)2つの実世界のICUデータセットに埋め込まれている。
b) 2つのリソース割り当てシナリオでトレーニングされたAIモデルによって誘導される。
その結果,HiRID ICUを受診した女性の予後指標は,男性に比べて最大で33%低下していた。
評価された4つのAIモデルは、ホワイト患者と比較して、ホワイトでない患者に対して大きな不平等(2.45%から43.2%)を引き起こすことが示されている。
モデルでは,8例中3例において,データ埋込み不平等が有意に悪化し,そのうち1例が9倍に悪化した。
コードベースはhttps://github.com/knowlab/DAindex-Frameworkにある。
関連論文リスト
- Few-shot learning for COVID-19 Chest X-Ray Classification with
Imbalanced Data: An Inter vs. Intra Domain Study [49.5374512525016]
医療画像データセットは、コンピュータ支援診断、治療計画、医学研究に使用される訓練モデルに不可欠である。
データ分散のばらつき、データの不足、ジェネリックイメージから事前トレーニングされたモデルを使用する場合の転送学習の問題などである。
本稿では,データ不足と分散不均衡の影響を軽減するために,一連の手法を統合したシームズニューラルネットワークに基づく手法を提案する。
論文 参考訳(メタデータ) (2024-01-18T16:59:27Z) - The Limits of Fair Medical Imaging AI In The Wild [43.97266228706059]
医療用AIが人口統計エンコーディングをどのように利用するかを検討する。
医療画像AIは、疾患分類において、人口動態のショートカットを利用することを確認した。
人口統計属性のエンコーディングが少ないモデルは、しばしば「グローバルに最適」であることがわかった。
論文 参考訳(メタデータ) (2023-12-11T18:59:50Z) - Unbiased Pain Assessment through Wearables and EHR Data: Multi-attribute
Fairness Loss-based CNN Approach [3.799109312082668]
本稿では,MAFL(Multi-Atribute Fairness Loss)に基づくCNNモデルを提案する。
提案手法と既存の緩和手順を比較し, 実装されたモデルが最先端の手法と対照的に良好に機能することを明らかにする。
論文 参考訳(メタデータ) (2023-07-03T09:21:36Z) - Generative models improve fairness of medical classifiers under
distribution shifts [49.10233060774818]
データから現実的な拡張を自動的に学習することは、生成モデルを用いてラベル効率の良い方法で可能であることを示す。
これらの学習の強化は、モデルをより堅牢で統計的に公平に配布できることを示した。
論文 参考訳(メタデータ) (2023-04-18T18:15:38Z) - Robustness of an Artificial Intelligence Solution for Diagnosis of
Normal Chest X-Rays [0.0]
正常胸部X線(CXR)の診断におけるAIソリューションの有用性について検討した。
合計4,060個のCXRがサンプリングされ、NHS患者とケア設定の多様なデータセットが表現された。
論文 参考訳(メタデータ) (2022-08-31T09:54:24Z) - Advancing COVID-19 Diagnosis with Privacy-Preserving Collaboration in
Artificial Intelligence [79.038671794961]
我々はUCADI(Unified CT-COVID AI Diagnostic Initiative)を立ち上げ、各ホスト機関でAIモデルを分散的にトレーニングし、独立して実行することができる。
本研究は,中国とイギリスに所在する23の病院で採取した3,336例の胸部CT9,573例について検討した。
論文 参考訳(メタデータ) (2021-11-18T00:43:41Z) - Algorithm Fairness in AI for Medicine and Healthcare [4.626801344708786]
アルゴリズムの公平性は 公平なケアを提供する上で 難しい問題です
人種のサブ人口にまたがるAIモデルの最近の評価では、患者の診断、治療、医療費の請求などにおいて、大きな不平等が明らかになっている。
論文 参考訳(メタデータ) (2021-10-01T18:18:13Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - CovidDeep: SARS-CoV-2/COVID-19 Test Based on Wearable Medical Sensors
and Efficient Neural Networks [51.589769497681175]
新型コロナウイルス(SARS-CoV-2)がパンデミックを引き起こしている。
SARS-CoV-2の逆転写-ポリメラーゼ連鎖反応に基づく現在の試験体制は、試験要求に追いついていない。
我々は,効率的なDNNと市販のWMSを組み合わせたCovidDeepというフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-20T21:47:28Z) - Deep Mining External Imperfect Data for Chest X-ray Disease Screening [57.40329813850719]
我々は、外部のCXRデータセットを組み込むことで、不完全なトレーニングデータにつながると論じ、課題を提起する。
本研究は,多ラベル病分類問題を重み付き独立二分課題として分類する。
我々のフレームワークは、ドメインとラベルの相違を同時にモデル化し、対処し、優れた知識マイニング能力を実現する。
論文 参考訳(メタデータ) (2020-06-06T06:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。