論文の概要: Bias Delayed is Bias Denied? Assessing the Effect of Reporting Delays on Disparity Assessments
- arxiv url: http://arxiv.org/abs/2506.13735v1
- Date: Mon, 16 Jun 2025 17:44:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:49.191824
- Title: Bias Delayed is Bias Denied? Assessing the Effect of Reporting Delays on Disparity Assessments
- Title(参考訳): バイアスの遅れは否定されるか? 遅れの報告が格差評価に及ぼす影響を評価する
- Authors: Jennah Gosciak, Aparna Balagopalan, Derek Ouyang, Allison Koenecke, Marzyeh Ghassemi, Daniel E. Ho,
- Abstract要約: 遅延した人口統計データは、監視と行動の重要な点で欠落している可能性がある。
我々は,50州すべてにおいて,プライマリケアの実践を通じて500万人以上の患者の電子的健康記録を用いて,医療におけるそのような影響を特徴づけた。
- 参考スコア(独自算出の注目度): 13.220995138726618
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conducting disparity assessments at regular time intervals is critical for surfacing potential biases in decision-making and improving outcomes across demographic groups. Because disparity assessments fundamentally depend on the availability of demographic information, their efficacy is limited by the availability and consistency of available demographic identifiers. While prior work has considered the impact of missing data on fairness, little attention has been paid to the role of delayed demographic data. Delayed data, while eventually observed, might be missing at the critical point of monitoring and action -- and delays may be unequally distributed across groups in ways that distort disparity assessments. We characterize such impacts in healthcare, using electronic health records of over 5M patients across primary care practices in all 50 states. Our contributions are threefold. First, we document the high rate of race and ethnicity reporting delays in a healthcare setting and demonstrate widespread variation in rates at which demographics are reported across different groups. Second, through a set of retrospective analyses using real data, we find that such delays impact disparity assessments and hence conclusions made across a range of consequential healthcare outcomes, particularly at more granular levels of state-level and practice-level assessments. Third, we find limited ability of conventional methods that impute missing race in mitigating the effects of reporting delays on the accuracy of timely disparity assessments. Our insights and methods generalize to many domains of algorithmic fairness where delays in the availability of sensitive information may confound audits, thus deserving closer attention within a pipeline-aware machine learning framework.
- Abstract(参考訳): 定期的な時間間隔で不均衡評価を行うことは、意思決定の潜在的なバイアスを指摘し、人口集団全体での結果を改善するために重要である。
格差評価は、基本的に人口統計情報の可用性に依存するため、それらの有効性は、利用可能な人口統計識別子の可用性と一貫性によって制限される。
先行研究は、欠落したデータが公正性に与える影響を考慮してきたが、遅れた人口統計データの役割にはほとんど注意が払われていない。
遅延データは最終的に観測されるが、監視と行動の重要な点で欠落している可能性がある。
我々は、50州すべてにおいて、プライマリ・ケアの実践を通じて500万人以上の患者の電子的健康記録を用いて、医療におけるそのような影響を特徴づける。
私たちの貢献は3倍です。
まず、医療現場における人種や民族の報告の遅れの頻度を報告し、異なる集団にまたがって人口統計が報告される率の広範な変動を示す。
第二に、実際のデータを用いた一連の振り返り分析により、そのような遅延が格差評価に影響を与え、その結果、関連する医療結果、特に国家レベルでのより詳細な評価と実践レベルの評価において、様々な結論が導かれることが判明した。
第三に、レポート遅延が時間的不均一性評価の精度に与える影響を緩和する従来の手法の限定的な能力を見出した。
我々の洞察と手法は、機密情報の入手の遅れが監査を混乱させる可能性があるアルゴリズムフェアネスの多くの領域に一般化し、パイプライン対応機械学習フレームワーク内でより深い注意を払っている。
関連論文リスト
- Comparative assessment of fairness definitions and bias mitigation strategies in machine learning-based diagnosis of Alzheimer's disease from MR images [4.569587135821805]
本研究では,MCIとアルツハイマー病(AD)の診断のための機械学習モデル(ML)の公平性解析をMRIによる神経画像特徴から行う。
マルチコホートデータセットにおける年齢,人種,性別に関連するバイアスについて検討した。
その結果、年齢や人種に関連するバイアスの存在が明らかとなったが、有意な性別バイアスは観察されなかった。
論文 参考訳(メタデータ) (2025-05-29T15:07:19Z) - Towards Fair Face Verification: An In-depth Analysis of Demographic
Biases [11.191375513738361]
近年,深層学習に基づく人物識別・検証システムは,精度の面で著しく向上している。
しかし、このようなシステムは人種、年齢、性別に関する重大な偏見を呈している。
本稿では,これらの要因の交叉性に着目した詳細な分析を行う。
論文 参考訳(メタデータ) (2023-07-19T14:49:14Z) - Continual Causal Effect Estimation: Challenges and Opportunities [11.343298687766579]
観測データにおける原因と効果のさらなる理解は多くの領域で重要である。
既存の手法は主にソース固有および静止観測データに焦点を当てている。
ビッグデータの時代,我々は観測データによる因果推論において新たな課題に直面している。
論文 参考訳(メタデータ) (2023-01-03T09:57:50Z) - Imputation Strategies Under Clinical Presence: Impact on Algorithmic Fairness [8.958956425857878]
我々は、機械学習がデータおよびデータから欠落するものにおけるバイアスを補強するリスクを論じる。
医療の欠如に対処する方法は、アルゴリズムの公正性に有害な影響を与える可能性がある。
提案手法は,命令の選択を実証的に導くためのフレームワークと,それに伴う報告フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-13T13:34:05Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Enabling Counterfactual Survival Analysis with Balanced Representations [64.17342727357618]
生存データは様々な医学的応用、すなわち薬物開発、リスクプロファイリング、臨床試験で頻繁に見られる。
本稿では,生存結果に適用可能な対実的推論のための理論的基盤を持つ統一的枠組みを提案する。
論文 参考訳(メタデータ) (2020-06-14T01:15:00Z) - On the role of surrogates in the efficient estimation of treatment effects with limited outcome data [43.17788100119767]
一次利害関係にない結果のみを代理する単位にデータを組み込むことは、ATE推定の精度を高めることができる。
我々は,これらの効率向上を実現するために,ロバストなATE推定と推論手法を開発した。
論文 参考訳(メタデータ) (2020-03-27T13:31:49Z) - Generalization Bounds and Representation Learning for Estimation of
Potential Outcomes and Causal Effects [61.03579766573421]
代替薬に対する患者一人の反応など,個人レベルの因果効果の推定について検討した。
我々は,表現の誘導的処理群距離を正規化することにより,境界を最小化する表現学習アルゴリズムを考案した。
これらのアルゴリズムを拡張して、重み付き表現を同時に学習し、治療群距離をさらに削減する。
論文 参考訳(メタデータ) (2020-01-21T10:16:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。