論文の概要: Advancing Community Engaged Approaches to Identifying Structural Drivers
of Racial Bias in Health Diagnostic Algorithms
- arxiv url: http://arxiv.org/abs/2305.13485v1
- Date: Mon, 22 May 2023 20:58:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 20:39:58.154904
- Title: Advancing Community Engaged Approaches to Identifying Structural Drivers
of Racial Bias in Health Diagnostic Algorithms
- Title(参考訳): 健康診断アルゴリズムにおける顔面バイアスの構造因子同定へのコミュニティエンゲージメントアプローチの推進
- Authors: Jill A. Kuhlberg (1), Irene Headen (2), Ellis A. Ballard (3), Donald
Martin Jr., (4) ((1) System Stars LLC, (2) Drexel University, (3) Washington
University in St. Louis, (4) Google)
- Abstract要約: 最近、医療におけるバイアスと機械学習アルゴリズムの使用について多くの注目を集めている。
本稿では、データと医療の議論の中心となることの重要性と、医療と科学の経験を強調する。
地域社会のトラウマの集団記憶、医療不足による死亡、医療に対する否定的な経験は、治療と効果的なケアを経験する内因性ドライバーである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Much attention and concern has been raised recently about bias and the use of
machine learning algorithms in healthcare, especially as it relates to
perpetuating racial discrimination and health disparities. Following an initial
system dynamics workshop at the Data for Black Lives II conference hosted at
MIT in January of 2019, a group of conference participants interested in
building capabilities to use system dynamics to understand complex societal
issues convened monthly to explore issues related to racial bias in AI and
implications for health disparities through qualitative and simulation
modeling. In this paper we present results and insights from the modeling
process and highlight the importance of centering the discussion of data and
healthcare on people and their experiences with healthcare and science, and
recognizing the societal context where the algorithm is operating. Collective
memory of community trauma, through deaths attributed to poor healthcare, and
negative experiences with healthcare are endogenous drivers of seeking
treatment and experiencing effective care, which impact the availability and
quality of data for algorithms. These drivers have drastically disparate
initial conditions for different racial groups and point to limited impact of
focusing solely on improving diagnostic algorithms for achieving better health
outcomes for some groups.
- Abstract(参考訳): 偏りや医療における機械学習アルゴリズムの利用、特に人種差別や健康格差の持続に関連して、近年多くの注意と関心が寄せられている。
2019年1月にmitで開催されたdata for black lives iiカンファレンスの最初のsystem dynamicsワークショップに続いて、会議参加者のグループは、システムダイナミクスを使って複雑な社会問題を理解する能力を構築することに関心を持ち、aiの人種バイアスと質的およびシミュレーションモデリングによる健康格差に関する問題を探求するために毎月開催された。
本稿では,モデリングプロセスから得られた結果と知見について述べるとともに,データと医療の議論を中心に,医療と科学の経験を中心に,アルゴリズムが動作している社会的な文脈を認識することの重要性を強調する。
コミュニティトラウマの集団記憶は、医療の貧弱さに起因する死と、医療に対するネガティブな経験を通じて、効果的な治療を求めて経験する内因性要因であり、アルゴリズムのデータの可用性と品質に影響を与える。
これらのドライバーは、異なる人種グループのために初期条件を劇的に異なっており、一部のグループでより良い健康結果を達成するための診断アルゴリズムの改善にのみ焦点を合わせることによる影響を限定している。
関連論文リスト
- AI-Driven Healthcare: A Survey on Ensuring Fairness and Mitigating Bias [2.398440840890111]
AIアプリケーションは、診断精度、治療のパーソナライゼーション、患者の結果予測を大幅に改善した。
これらの進歩は、実質的な倫理的・公正性の課題ももたらした。
これらのバイアスは、医療提供の格差をもたらし、異なる人口集団の診断精度と治療結果に影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-07-29T02:39:17Z) - Open Challenges on Fairness of Artificial Intelligence in Medical Imaging Applications [3.8236840661885485]
この章ではまず、データ収集、モデルトレーニング、臨床展開など、さまざまなバイアス源について論じている。
そして、研究者や実践者からの注意を必要とすると信じているオープンな課題について議論する。
論文 参考訳(メタデータ) (2024-07-24T02:41:19Z) - Evaluating the Fairness of the MIMIC-IV Dataset and a Baseline
Algorithm: Application to the ICU Length of Stay Prediction [65.268245109828]
本稿では、MIMIC-IVデータセットを用いて、滞在時間を予測するXGBoostバイナリ分類モデルにおける公平性とバイアスについて検討する。
この研究は、人口統計属性にわたるデータセットのクラス不均衡を明らかにし、データ前処理と特徴抽出を採用する。
この論文は、偏見を緩和するための公正な機械学習技術と、医療専門家とデータサイエンティストの協力的な努力の必要性について結論付けている。
論文 参考訳(メタデータ) (2023-12-31T16:01:48Z) - Fairness in Machine Learning meets with Equity in Healthcare [6.842248432925292]
本研究では,データやモデルのバイアスを識別・緩和する人工知能フレームワークを提案する。
ケーススタディでは、データの体系的バイアスがモデル予測における増幅バイアスにどのように寄与するかを示す。
今後の研究は、提案するMLフレームワークを実世界の臨床環境でテストし、検証することを目的としており、その影響が健康株の促進に与える影響を評価する。
論文 参考訳(メタデータ) (2023-05-11T14:25:34Z) - Algorithmic Bias in Machine Learning Based Delirium Prediction [20.16366948502659]
性別や人種などの社会デマグラフィー的特徴がサブグループ間でのモデル性能にどのように影響するかを示す最初の実験的な証拠を提示する。
本研究の目的は,老齢,人種,社会経済的要因が早期発見およびMLによるデリリウムの予防に与える影響について考察することである。
論文 参考訳(メタデータ) (2022-11-08T18:35:42Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Algorithm Fairness in AI for Medicine and Healthcare [4.626801344708786]
アルゴリズムの公平性は 公平なケアを提供する上で 難しい問題です
人種のサブ人口にまたがるAIモデルの最近の評価では、患者の診断、治療、医療費の請求などにおいて、大きな不平等が明らかになっている。
論文 参考訳(メタデータ) (2021-10-01T18:18:13Z) - The Medkit-Learn(ing) Environment: Medical Decision Modelling through
Simulation [81.72197368690031]
医用シーケンシャルな意思決定に特化して設計された新しいベンチマークスイートを提案する。
Medkit-Learn(ing) Environmentは、高忠実度合成医療データに簡単かつ簡単にアクセスできるPythonパッケージである。
論文 参考訳(メタデータ) (2021-06-08T10:38:09Z) - COVI White Paper [67.04578448931741]
接触追跡は、新型コロナウイルスのパンデミックの進行を変える上で不可欠なツールだ。
カナダで開発されたCovid-19の公衆ピアツーピア接触追跡とリスク認識モバイルアプリケーションであるCOVIの理論的、設計、倫理的考察、プライバシ戦略について概説する。
論文 参考訳(メタデータ) (2020-05-18T07:40:49Z) - Predictive Modeling of ICU Healthcare-Associated Infections from
Imbalanced Data. Using Ensembles and a Clustering-Based Undersampling
Approach [55.41644538483948]
本研究は,集中治療室における危険因子の同定と医療関連感染症の予測に焦点をあてる。
感染発生率の低減に向けた意思決定を支援することを目的とする。
論文 参考訳(メタデータ) (2020-05-07T16:13:12Z) - Hierarchical Reinforcement Learning for Automatic Disease Diagnosis [52.111516253474285]
政策学習のための対話システムに2段階の階層的な政策構造を統合することを提案する。
提案した政策構造は,多くの疾患や症状を含む診断問題に対処することができる。
論文 参考訳(メタデータ) (2020-04-29T15:02:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。