論文の概要: Assessing Racial Disparities in Healthcare Expenditures Using Causal Path-Specific Effects
- arxiv url: http://arxiv.org/abs/2504.21688v1
- Date: Wed, 30 Apr 2025 14:23:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 18:15:15.314163
- Title: Assessing Racial Disparities in Healthcare Expenditures Using Causal Path-Specific Effects
- Title(参考訳): 因果経路特異的効果を用いた医療費の人種差の評価
- Authors: Xiaxian Ou, Xinwei He, David Benkeser, Razieh Nabi,
- Abstract要約: 本研究は, 社会経済的地位, 保険アクセス, 健康行動, 健康状態など様々な要因が, これらの格差を媒介する要因を定量化するために, 因果的および反ファクト的経路特異的な効果を用いる。
特定のメディエーターの価値が、選択された因果経路に沿って人種グループ間で一致した反ファクトなシナリオにおいて、支出がどのように異なるかを推定する。
- 参考スコア(独自算出の注目度): 4.357338639836869
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Racial disparities in healthcare expenditures are well-documented, yet the underlying drivers remain complex and require further investigation. This study employs causal and counterfactual path-specific effects to quantify how various factors, including socioeconomic status, insurance access, health behaviors, and health status, mediate these disparities. Using data from the Medical Expenditures Panel Survey, we estimate how expenditures would differ under counterfactual scenarios in which the values of specific mediators were aligned across racial groups along selected causal pathways. A key challenge in this analysis is ensuring robustness against model misspecification while addressing the zero-inflation and right-skewness of healthcare expenditures. For reliable inference, we derive asymptotically linear estimators by integrating influence function-based techniques with flexible machine learning methods, including super learners and a two-part model tailored to the zero-inflated, right-skewed nature of healthcare expenditures.
- Abstract(参考訳): 医療費の人種格差は十分に文書化されているが、基礎となるドライバーは複雑であり、さらなる調査が必要である。
本研究は, 社会経済的地位, 保険アクセス, 健康行動, 健康状態など様々な要因が, これらの格差を媒介する要因を定量化するために, 因果的および反ファクト的経路特異的な効果を用いる。
医療費パネル調査から得られたデータを用いて,特定のメディエーターの価値観が選択された因果経路に沿って人種グループに並んだ反ファクト的シナリオにおいて,支出がいかに異なるかを推定した。
この分析における重要な課題は、医療費のゼロインフレーションと右スキューネスに対処しながら、モデルの誤特定に対する堅牢性を確保することである。
信頼性の高い推定のために,医療費のゼロインフレーション,右スキュードの性質に合わせた2部モデルとスーパーラーナーを含むフレキシブルな機械学習手法とインフルエンス関数に基づく手法を統合することで,漸近線形推定器を導出する。
関連論文リスト
- Healthcare cost prediction for heterogeneous patient profiles using deep learning models with administrative claims data [0.0]
本研究は,技術システムと人文主義的成果との相互作用を強調する社会技術的考察を基礎にしている。
本稿では,ACデータを別のチャネルに分割することで,データの均一性を緩和するチャネルワイドディープラーニングフレームワークを提案する。
提案されたチャネルワイドモデルは、単一チャネルモデルと比較して予測誤差を23%削減し、16.4%と19.3%の過払いと低給の削減につながった。
論文 参考訳(メタデータ) (2025-02-17T19:20:41Z) - Fairness in Computational Innovations: Identifying Bias in Substance Use Treatment Length of Stay Prediction Models with Policy Implications [0.477529483515826]
予測機械学習(英: Predictive Machine Learning, ML)は、医学的意思決定を強化する計算技術である。
しかし、社会的バイアスはそのようなモデルにエンコードすることができ、不利なグループの健康結果に不注意に影響を及ぼす懸念を提起する。
この問題は、物質使用障害(SUD)の治療の文脈において特に重要であり、予測モデルのバイアスは、非常に脆弱な患者の回復に大きな影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2024-12-08T06:47:23Z) - Using Backbone Foundation Model for Evaluating Fairness in Chest Radiography Without Demographic Data [2.7436483977171333]
本研究の目的は,基礎モデルのバックボーンを埋め込み抽出器として用いることの有効性を検討することである。
我々は,これらのグループを,前処理,内処理,評価など,様々な段階のバイアス軽減に活用することを提案する。
論文 参考訳(メタデータ) (2024-08-28T20:35:38Z) - The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - The Role of Subgroup Separability in Group-Fair Medical Image
Classification [18.29079361470428]
診断などの系統的バイアスを伴うデータを用いて, サブグループ分離性, サブグループ分離性, 性能劣化の関係について検討した。
私たちの発見は、モデルがどのように偏見を抱くかという問題に新たな光を当て、公正な医療画像AIの開発に重要な洞察を与えました。
論文 参考訳(メタデータ) (2023-07-06T06:06:47Z) - A Causal Framework for Decomposing Spurious Variations [68.12191782657437]
我々はマルコフモデルとセミマルコフモデルの急激な変分を分解するツールを開発する。
突発効果の非パラメトリック分解を可能にする最初の結果を証明する。
説明可能なAIや公平なAIから、疫学や医学における疑問まで、いくつかの応用がある。
論文 参考訳(メタデータ) (2023-06-08T09:40:28Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - The Impact of Socioeconomic Factors on Health Disparities [0.0]
我々は米国国勢調査とCDCのデータを用いて、特定の社会経済的要因が特定の健康指標と一般的な健康指標とどのように関連しているかを調査した。
以上の結果から,収入や教育達成率などの社会経済的要因は,総合的な健康対策と高い相関があることが示唆された。
論文 参考訳(メタデータ) (2022-12-01T00:00:40Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Outcomes in Healthcare Economics using Artificial
Intelligence: with Application to Resource Management [0.0]
多くの場合、そのような出来事は、病院における複数の医療・経済的な側面と同様に、意思決定において重大な不確実性を引き起こす。
この原稿は、医療管理者が経済を組織化し、資源配分と共有の最も最適な計画を特定するのに役立つ3つのデータ駆動手法を提示する。
論文 参考訳(メタデータ) (2021-11-15T02:39:39Z) - SurvITE: Learning Heterogeneous Treatment Effects from Time-to-Event
Data [83.50281440043241]
時系列データから不均一な処理効果を推定する問題について検討する。
本稿では,バランス表現に基づく治療特異的ハザード推定のための新しいディープラーニング手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T20:13:17Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Targeted VAE: Variational and Targeted Learning for Causal Inference [39.351088248776435]
観測データによる因果推論は、幅広いタスクで非常に有用である。
観察データを用いた因果推論の実施には,2つの重要な課題がある。
構造化推論とターゲット学習を組み合わせることで、これらの2つの課題に対処する。
論文 参考訳(メタデータ) (2020-09-28T16:55:24Z) - Predictive Modeling of ICU Healthcare-Associated Infections from
Imbalanced Data. Using Ensembles and a Clustering-Based Undersampling
Approach [55.41644538483948]
本研究は,集中治療室における危険因子の同定と医療関連感染症の予測に焦点をあてる。
感染発生率の低減に向けた意思決定を支援することを目的とする。
論文 参考訳(メタデータ) (2020-05-07T16:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。