論文の概要: Assessing Racial Disparities in Healthcare Expenditures via Mediator Distribution Shifts
- arxiv url: http://arxiv.org/abs/2504.21688v2
- Date: Fri, 01 Aug 2025 17:16:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.503727
- Title: Assessing Racial Disparities in Healthcare Expenditures via Mediator Distribution Shifts
- Title(参考訳): メディエーター分布変化による医療費の人種格差の評価
- Authors: Xiaxian Ou, Xinwei He, David Benkeser, Razieh Nabi,
- Abstract要約: 本研究は,媒介変数の分布の変化を通じて,このような相違を分解する枠組みを開発する。
我々は,保険アクセスや健康行動,健康状態などの仲介者が人種集団間で平等化されている場合,支出格差が持続または減少する程度について検討した。
- 参考スコア(独自算出の注目度): 4.357338639836869
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Racial disparities in healthcare expenditures are well-documented, yet the underlying drivers remain complex and require further investigation. This study develops a framework for decomposing such disparities through shifts in the distributions of mediating variables, rather than treating race itself as a manipulable exposure. We define disparities as differences in covariate-adjusted outcome distributions across racial groups, and decompose the total disparity into two components: one attributable to differences in mediator distributions, and another residual component that would remain even after equalizing these distributions. Using data from the Medical Expenditures Panel Survey, we examine the extent to which expenditure disparities would persist or be reduced if mediators such as socioeconomic status, insurance access, health behaviors, or health status were equalized across racial groups. To ensure valid inference, we derive asymptotically linear estimators based on influence-function techniques and flexible machine learning tools, including super learners and a two-part model designed for the zero-inflated, right-skewed nature of expenditure data.
- Abstract(参考訳): 医療費の人種格差は十分に文書化されているが、基礎となるドライバーは複雑であり、さらなる調査が必要である。
本研究では,レース自体を操作可能な露光として扱うのではなく,媒介変数の分布の変化を通じて,このような格差を分解する枠組みを開発する。
格差を人種群間での共変量調整結果分布の差異として定義し、総格差を2つの成分に分解する。
医療支出パネル調査のデータを用いて,社会経済的地位,保険アクセス,健康行動,健康状態などのメディエーターが人種集団間で平等化されている場合,支出格差が持続または減少する程度について検討した。
有効推定を確実にするために、インフルエンス関数技術とフレキシブル機械学習ツールに基づいて漸近線形推定器を導出する。
関連論文リスト
- Healthcare cost prediction for heterogeneous patient profiles using deep learning models with administrative claims data [0.0]
本研究は,技術システムと人文主義的成果との相互作用を強調する社会技術的考察を基礎にしている。
本稿では,ACデータを別のチャネルに分割することで,データの均一性を緩和するチャネルワイドディープラーニングフレームワークを提案する。
提案されたチャネルワイドモデルは、単一チャネルモデルと比較して予測誤差を23%削減し、16.4%と19.3%の過払いと低給の削減につながった。
論文 参考訳(メタデータ) (2025-02-17T19:20:41Z) - Fairness in Computational Innovations: Identifying Bias in Substance Use Treatment Length of Stay Prediction Models with Policy Implications [0.477529483515826]
予測機械学習(英: Predictive Machine Learning, ML)は、医学的意思決定を強化する計算技術である。
しかし、社会的バイアスはそのようなモデルにエンコードすることができ、不利なグループの健康結果に不注意に影響を及ぼす懸念を提起する。
この問題は、物質使用障害(SUD)の治療の文脈において特に重要であり、予測モデルのバイアスは、非常に脆弱な患者の回復に大きな影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2024-12-08T06:47:23Z) - Using Backbone Foundation Model for Evaluating Fairness in Chest Radiography Without Demographic Data [2.7436483977171333]
本研究の目的は,基礎モデルのバックボーンを埋め込み抽出器として用いることの有効性を検討することである。
我々は,これらのグループを,前処理,内処理,評価など,様々な段階のバイアス軽減に活用することを提案する。
論文 参考訳(メタデータ) (2024-08-28T20:35:38Z) - The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - The Role of Subgroup Separability in Group-Fair Medical Image
Classification [18.29079361470428]
診断などの系統的バイアスを伴うデータを用いて, サブグループ分離性, サブグループ分離性, 性能劣化の関係について検討した。
私たちの発見は、モデルがどのように偏見を抱くかという問題に新たな光を当て、公正な医療画像AIの開発に重要な洞察を与えました。
論文 参考訳(メタデータ) (2023-07-06T06:06:47Z) - A Causal Framework for Decomposing Spurious Variations [68.12191782657437]
我々はマルコフモデルとセミマルコフモデルの急激な変分を分解するツールを開発する。
突発効果の非パラメトリック分解を可能にする最初の結果を証明する。
説明可能なAIや公平なAIから、疫学や医学における疑問まで、いくつかの応用がある。
論文 参考訳(メタデータ) (2023-06-08T09:40:28Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - The Impact of Socioeconomic Factors on Health Disparities [0.0]
我々は米国国勢調査とCDCのデータを用いて、特定の社会経済的要因が特定の健康指標と一般的な健康指標とどのように関連しているかを調査した。
以上の結果から,収入や教育達成率などの社会経済的要因は,総合的な健康対策と高い相関があることが示唆された。
論文 参考訳(メタデータ) (2022-12-01T00:00:40Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Outcomes in Healthcare Economics using Artificial
Intelligence: with Application to Resource Management [0.0]
多くの場合、そのような出来事は、病院における複数の医療・経済的な側面と同様に、意思決定において重大な不確実性を引き起こす。
この原稿は、医療管理者が経済を組織化し、資源配分と共有の最も最適な計画を特定するのに役立つ3つのデータ駆動手法を提示する。
論文 参考訳(メタデータ) (2021-11-15T02:39:39Z) - SurvITE: Learning Heterogeneous Treatment Effects from Time-to-Event
Data [83.50281440043241]
時系列データから不均一な処理効果を推定する問題について検討する。
本稿では,バランス表現に基づく治療特異的ハザード推定のための新しいディープラーニング手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T20:13:17Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Targeted VAE: Variational and Targeted Learning for Causal Inference [39.351088248776435]
観測データによる因果推論は、幅広いタスクで非常に有用である。
観察データを用いた因果推論の実施には,2つの重要な課題がある。
構造化推論とターゲット学習を組み合わせることで、これらの2つの課題に対処する。
論文 参考訳(メタデータ) (2020-09-28T16:55:24Z) - Predictive Modeling of ICU Healthcare-Associated Infections from
Imbalanced Data. Using Ensembles and a Clustering-Based Undersampling
Approach [55.41644538483948]
本研究は,集中治療室における危険因子の同定と医療関連感染症の予測に焦点をあてる。
感染発生率の低減に向けた意思決定を支援することを目的とする。
論文 参考訳(メタデータ) (2020-05-07T16:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。