論文の概要: Fairness in Machine Learning meets with Equity in Healthcare
- arxiv url: http://arxiv.org/abs/2305.07041v2
- Date: Mon, 14 Aug 2023 14:47:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 19:50:00.745355
- Title: Fairness in Machine Learning meets with Equity in Healthcare
- Title(参考訳): 機械学習の公平性とヘルスケアの公平性
- Authors: Shaina Raza, Parisa Osivand Pour, Syed Raza Bashir
- Abstract要約: 本研究では,データやモデルのバイアスを識別・緩和する人工知能フレームワークを提案する。
ケーススタディでは、データの体系的バイアスがモデル予測における増幅バイアスにどのように寄与するかを示す。
今後の研究は、提案するMLフレームワークを実世界の臨床環境でテストし、検証することを目的としており、その影響が健康株の促進に与える影響を評価する。
- 参考スコア(独自算出の注目度): 6.842248432925292
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: With the growing utilization of machine learning in healthcare, there is
increasing potential to enhance healthcare outcomes. However, this also brings
the risk of perpetuating biases in data and model design that can harm certain
demographic groups based on factors such as age, gender, and race. This study
proposes an artificial intelligence framework, grounded in software engineering
principles, for identifying and mitigating biases in data and models while
ensuring fairness in healthcare settings. A case study is presented to
demonstrate how systematic biases in data can lead to amplified biases in model
predictions, and machine learning methods are suggested to prevent such biases.
Future research aims to test and validate the proposed ML framework in
real-world clinical settings to evaluate its impact on promoting health equity.
- Abstract(参考訳): 医療における機械学習の利用の増加に伴い、医療効果を高める可能性が高まっている。
しかし、これはまた、年齢、性別、人種といった要因に基づいて特定の人口集団グループを害するデータやモデルデザインのバイアスを持続させるリスクをもたらす。
本研究では,ソフトウェア工学の原則に基づく人工知能フレームワークを提案し,医療現場における公平性を確保しつつ,データやモデルのバイアスを識別・緩和する。
そこで本研究では,データの系統的バイアスがモデル予測の増幅バイアスにどのようにつながるかを示すとともに,機械学習によるバイアス防止法を提案する。
今後の研究は、提案するMLフレームワークを実世界の臨床環境でテストし、検証することを目的としており、その影響が健康株の促進に与える影響を評価する。
関連論文リスト
- Evaluating the Fairness of the MIMIC-IV Dataset and a Baseline
Algorithm: Application to the ICU Length of Stay Prediction [65.268245109828]
本稿では、MIMIC-IVデータセットを用いて、滞在時間を予測するXGBoostバイナリ分類モデルにおける公平性とバイアスについて検討する。
この研究は、人口統計属性にわたるデータセットのクラス不均衡を明らかにし、データ前処理と特徴抽出を採用する。
この論文は、偏見を緩和するための公正な機械学習技術と、医療専門家とデータサイエンティストの協力的な努力の必要性について結論付けている。
論文 参考訳(メタデータ) (2023-12-31T16:01:48Z) - Detecting algorithmic bias in medical AI-models [8.673428350514166]
本稿では,医療AI意思決定支援システムにおけるアルゴリズムバイアスの領域を検出するための革新的な枠組みを提案する。
本手法は,医学・AIモデルにおける潜在的なバイアスを,特に敗血症予測の文脈で効果的に同定する。
AIベースの医療判断における公平性と公平性を保証するための重要な手段として機能する。
論文 参考訳(メタデータ) (2023-12-05T18:47:34Z) - Towards a Transportable Causal Network Model Based on Observational
Healthcare Data [1.333879175460266]
本稿では,選択図,不足グラフ,因果発見,事前知識を1つのグラフィカルモデルに組み合わせた新しい手法を提案する。
このモデルは、患者の2つの異なるコホートからなるデータから学習する。
結果として得られた因果ネットワークモデルは、リスク評価、正確性、説明可能性の観点から専門家臨床医によって検証される。
論文 参考訳(メタデータ) (2023-11-13T13:23:31Z) - MedDiffusion: Boosting Health Risk Prediction via Diffusion-based Data
Augmentation [58.93221876843639]
本稿では,MedDiffusion という,エンドツーエンドの拡散に基づくリスク予測モデルを提案する。
トレーニング中に合成患者データを作成し、サンプルスペースを拡大することで、リスク予測性能を向上させる。
ステップワイズ・アテンション・メカニズムを用いて患者の来訪者間の隠れた関係を識別し、高品質なデータを生成する上で最も重要な情報をモデルが自動的に保持することを可能にする。
論文 参考訳(メタデータ) (2023-10-04T01:36:30Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals
Homogeneous Outcomes [76.07093761206377]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Connecting Fairness in Machine Learning with Public Health Equity [0.0]
データとモデル設計のバイアスは、特定の保護されたグループの格差をもたらし、医療における既存の不平等を増幅します。
本研究は,MLフェアネスに関する基礎文献を要約し,データとモデルのバイアスを特定し緩和するための枠組みを提案する。
ケーススタディは、このフレームワークがこれらのバイアスを防ぎ、公衆衛生における公平で公平なMLモデルの必要性を強調するためにどのように使用できるかを示している。
論文 参考訳(メタデータ) (2023-04-08T10:21:49Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。