論文の概要: See Me and Believe Me: Causality and Intersectionality in Testimonial Injustice in Healthcare
- arxiv url: http://arxiv.org/abs/2410.01227v1
- Date: Wed, 2 Oct 2024 04:10:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 22:18:46.981846
- Title: See Me and Believe Me: Causality and Intersectionality in Testimonial Injustice in Healthcare
- Title(参考訳): 医療における証言不公正の因果性と間欠性
- Authors: Kenya S. Andrews, Mesrob I. Ohannessian, Elena Zheleva,
- Abstract要約: 我々は、因果発見を用いて、特定の人口統計学的特徴が証言の不正につながる程度を調査する。
貢献する1つの特徴は、証言の不正を他の貢献者が経験する傾向を増す。
この研究は、因果発見を用いて、医療現場における患者のニュアンスな経験を理解するための最初の試みである。
- 参考スコア(独自算出の注目度): 10.443681644184966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In medical settings, it is critical that all who are in need of care are correctly heard and understood. When this is not the case due to prejudices a listener has, the speaker is experiencing \emph{testimonial injustice}, which, building upon recent work, we quantify by the presence of several categories of unjust vocabulary in medical notes. In this paper, we use FCI, a causal discovery method, to study the degree to which certain demographic features could lead to marginalization (e.g., age, gender, and race) by way of contributing to testimonial injustice. To achieve this, we review physicians' notes for each patient, where we identify occurrences of unjust vocabulary, along with the demographic features present, and use causal discovery to build a Structural Causal Model (SCM) relating those demographic features to testimonial injustice. We analyze and discuss the resulting SCMs to show the interaction of these factors and how they influence the experience of injustice. Despite the potential presence of some confounding variables, we observe how one contributing feature can make a person more prone to experiencing another contributor of testimonial injustice. There is no single root of injustice and thus intersectionality cannot be ignored. These results call for considering more than singular or equalized attributes of who a person is when analyzing and improving their experiences of bias and injustice. This work is thus a first foray at using causal discovery to understand the nuanced experiences of patients in medical settings, and its insights could be used to guide design principles throughout healthcare, to build trust and promote better patient care.
- Abstract(参考訳): 医療現場では、ケアを必要としているすべての人が正しく聴取され、理解されることが重要である。
聴取者が持つ偏見によってそうでない場合、話者は「emph{testimonial injustice}」を経験しており、これは最近の研究に基づいて、医療ノートに不当な語彙のいくつかのカテゴリが存在することによって定量化される。
本稿では, 因果発見法であるFCIを用いて, 年齢, 年齢, 性別, 人種などの年齢的特徴が, 証言の不正に寄与する可能性について検討する。
そこで我々は,各患者に対する医師のノートをレビューし,不適切な語彙の発生と人口動態の特徴を同定し,因果発見を用いて,それらの特徴を証言的不正に関連付ける構造因果モデル(Structure Causal Model, SCM)を構築した。
我々は、これらの要因の相互作用と、それらが不正経験に与える影響を示すために、結果のSCMを分析し、議論する。
共起変数が存在する可能性にもかかわらず、ある寄与特徴が、ある人が他の証言的不正を経験する傾向があることを観察する。
不正の唯一の根は存在しないので、交差性は無視できない。
これらの結果は、偏見や不公平な経験を分析し改善する際に、個人が誰であるかの特異な属性または等化属性以上のものを検討することを要求する。
この研究は、因果発見を用いて、医療現場で患者が経験した微妙な経験を理解するための最初の試みであり、その洞察は、医療全体のデザイン原則をガイドし、信頼を築き、より良い患者ケアを促進するために利用することができる。
関連論文リスト
- Belief in the Machine: Investigating Epistemological Blind Spots of Language Models [51.63547465454027]
言語モデル(LM)は、医療、法律、ジャーナリズムといった分野において、信頼できる意思決定に不可欠である。
本研究は,新しいデータセットであるKaBLEを用いて,GPT-4,Claude-3,Llama-3を含む現代のLMの能力を体系的に評価する。
まず、LMは事実シナリオで86%の精度を達成するが、その性能は偽シナリオで著しく低下する。
第二に、特にこれらの信念が事実データと矛盾する場合、LMは個人的信念を認識し、肯定するのに苦労する。
論文 参考訳(メタデータ) (2024-10-28T16:38:20Z) - The Ethics of ChatGPT in Medicine and Healthcare: A Systematic Review on Large Language Models (LLMs) [0.0]
ChatGPT, Large Language Models (LLMs) は医療分野で大きな注目を集めている。
その潜在的な利点にもかかわらず、研究者は様々な倫理的影響を過小評価してきた。
本研究は, LLMの医療・医療への展開の現段階を取り巻く倫理的景観を地図化することを目的としている。
論文 参考訳(メタデータ) (2024-03-21T15:20:07Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Sensitivity, Performance, Robustness: Deconstructing the Effect of
Sociodemographic Prompting [64.80538055623842]
社会デマトグラフィープロンプトは、特定の社会デマトグラフィープロファイルを持つ人間が与える答えに向けて、プロンプトベースのモデルの出力を操縦する技術である。
ソシオデマトグラフィー情報はモデル予測に影響を及ぼし、主観的NLPタスクにおけるゼロショット学習を改善するのに有用であることを示す。
論文 参考訳(メタデータ) (2023-09-13T15:42:06Z) - Intersectionality and Testimonial Injustice in Medical Records [10.06051533333397]
実世界の医療データを用いて、医療記録が証言の不正につながる可能性のある単語を示すかどうかを判断する。
人口統計学的特徴(例えば、性別や人種)の交叉性が、証言の不正を明らかにする上でどのように異なるかを分析する。
論文 参考訳(メタデータ) (2023-06-20T17:22:50Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Write It Like You See It: Detectable Differences in Clinical Notes By
Race Lead To Differential Model Recommendations [15.535251319178379]
機械学習モデルと人間専門家が利用できる暗黙の人種情報のレベルについて検討する。
また,本研究の結果から,被験者の自己申告した人種を,明示的な人種指標から取り除かれた場合でも,臨床記録から特定できることがわかった。
以上の結果から,これらのテストノートに基づいてトレーニングしたモデルが,臨床治療決定における既存のバイアスを持続させる可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-08T18:24:11Z) - Towards Fairness in Classifying Medical Conversations into SOAP Sections [2.1485350418225244]
我々は、医師と患者の会話を医療用SOAPノートのセクションに分類するモデルにおいて、格差を特定し、理解する。
これらの会話における言語に関するより深い分析は、これらの違いが医学的アポイントメントのタイプに関係しており、しばしば関連していることを示している。
我々の発見は、データ自体に存在する可能性のある格差を理解することの重要性と、モデルが利益を均等に分配する能力にどのように影響するかを強調します。
論文 参考訳(メタデータ) (2020-12-02T14:55:22Z) - Hurtful Words: Quantifying Biases in Clinical Contextual Word Embeddings [16.136832979324467]
本研究は,MIMIC-III 病院データセットから医療用ノートにディープ埋め込みモデル(BERT)を事前訓練する。
文脈的単語埋め込みによって捉えられる危険な潜伏関係を同定する。
我々は,50以上の下流臨床予測課題において,フェアネスの定義の異なる性能ギャップを評価する。
論文 参考訳(メタデータ) (2020-03-11T23:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。