論文の概要: Intersectionality and Testimonial Injustice in Medical Records
- arxiv url: http://arxiv.org/abs/2306.13675v1
- Date: Tue, 20 Jun 2023 17:22:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-02 13:35:14.547985
- Title: Intersectionality and Testimonial Injustice in Medical Records
- Title(参考訳): 医療記録における間欠性と証言不正
- Authors: Kenya S. Andrews and Bhuvani Shah and Lu Cheng
- Abstract要約: 実世界の医療データを用いて、医療記録が証言の不正につながる可能性のある単語を示すかどうかを判断する。
人口統計学的特徴(例えば、性別や人種)の交叉性が、証言の不正を明らかにする上でどのように異なるかを分析する。
- 参考スコア(独自算出の注目度): 10.06051533333397
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting testimonial injustice is an essential element of addressing
inequities and promoting inclusive healthcare practices, many of which are
life-critical. However, using a single demographic factor to detect testimonial
injustice does not fully encompass the nuanced identities that contribute to a
patient's experience. Further, some injustices may only be evident when
examining the nuances that arise through the lens of intersectionality.
Ignoring such injustices can result in poor quality of care or life-endangering
events. Thus, considering intersectionality could result in more accurate
classifications and just decisions. To illustrate this, we use real-world
medical data to determine whether medical records exhibit words that could lead
to testimonial injustice, employ fairness metrics (e.g. demographic parity,
differential intersectional fairness, and subgroup fairness) to assess the
severity to which subgroups are experiencing testimonial injustice, and analyze
how the intersectionality of demographic features (e.g. gender and race) make a
difference in uncovering testimonial injustice. From our analysis, we found
that with intersectionality we can better see disparities in how subgroups are
treated and there are differences in how someone is treated based on the
intersection of their demographic attributes. This has not been previously
studied in clinical records, nor has it been proven through empirical study.
- Abstract(参考訳): 証言の不公平を検出することは、不平等に対処し、包括的医療プラクティスを促進する重要な要素である。
しかし,1つの人口統計因子を用いて証言の不公平を検出することは,患者の経験に寄与するニュアンスなアイデンティティを完全には含まない。
さらに、いくつかの不正は、交叉性レンズを通して生じるニュアンスを調べる場合にのみ明らかである。
このような不正を無視すると、ケアの質が悪くなり、命が危うくなることがある。
したがって、交差性を考えると、より正確な分類と単なる決定をもたらす可能性がある。
これを説明するために、実世界の医療データを用いて、医療記録が証言の不当さにつながる可能性のある単語を呈するかどうかを判断し、公平度指標(例えば、人口差パリティ、差分交叉不公平、サブグループフェアネス)を用いて、証言不公平を経験するサブグループの重大度を評価し、人口統計学的特徴(例えば、性別と人種)の交叉性が、証言不当さの解明にどのように影響するかを分析する。
分析の結果,交差性ではサブグループの扱いの仕方に差異が見られ,人口統計学的属性の交叉に基づく扱い方に相違があることが判明した。
これは、これまで臨床記録では研究されておらず、経験的研究でも証明されていない。
関連論文リスト
- See Me and Believe Me: Causality and Intersectionality in Testimonial Injustice in Healthcare [10.443681644184966]
我々は、因果発見を用いて、特定の人口統計学的特徴が証言の不正につながる程度を調査する。
貢献する1つの特徴は、証言の不正を他の貢献者が経験する傾向を増す。
この研究は、因果発見を用いて、医療現場における患者のニュアンスな経験を理解するための最初の試みである。
論文 参考訳(メタデータ) (2024-10-02T04:10:55Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Towards Fair Patient-Trial Matching via Patient-Criterion Level Fairness
Constraint [50.35075018041199]
本研究は,患者基準値の公正度制約を発生させることにより,公正な患者間マッチングの枠組みを提案する。
実世界における患者基準と患者基準の整合性に関する実験結果から,提案手法が偏りやすい予測を効果的に緩和できることが示唆された。
論文 参考訳(メタデータ) (2023-03-24T03:59:19Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Clinical trial site matching with improved diversity using fair policy
learning [56.01170456417214]
我々は,臨床治験記述を潜在的な試験現場のランクリストにマッピングするモデルを学習する。
既存のフェアネスフレームワークとは異なり、各トライアルサイトのグループメンバーシップは非バイナリである。
このようなマルチグループメンバーシップシナリオに対処するために、人口統計学的妥当性に基づく公平性基準を提案する。
論文 参考訳(メタデータ) (2022-04-13T16:35:28Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z) - Characterizing Intersectional Group Fairness with Worst-Case Comparisons [0.0]
我々は、公平度指標が交差性のレンズの下で検討される必要がある理由について議論する。
既存のグループ公平度指標の定義を拡張するための単純な最悪のケース比較方法を提案する。
現代の文脈における交差点の公平性を扱うための社会的、法的、政治的枠組みで締めくくります。
論文 参考訳(メタデータ) (2021-01-05T17:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。