論文の概要: Large language models perpetuate bias in palliative care: development and analysis of the Palliative Care Adversarial Dataset (PCAD)
- arxiv url: http://arxiv.org/abs/2502.08073v1
- Date: Wed, 12 Feb 2025 02:29:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:49:22.411986
- Title: Large language models perpetuate bias in palliative care: development and analysis of the Palliative Care Adversarial Dataset (PCAD)
- Title(参考訳): 弁証的ケアにおけるバイアスを持続する大規模言語モデル--PCAD(Palliative Care Adversarial Dataset)の開発と分析
- Authors: Naomi Akhras, Fares Antaki, Fannie Mottet, Olivia Nguyen, Shyam Sawhney, Sabrina Bajwah, Joanna M Davies,
- Abstract要約: 大規模言語モデル(LLM)は、ケアを強化する可能性を持っているが、トレーニングデータに存在するバイアスが持続するリスクがある。
本研究の目的は,GPT-4oが対向的に設計されたデータセットを用いて,緩和ケア応答のバイアスを伝達するかどうかを体系的に評価することである。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Bias and inequity in palliative care disproportionately affect marginalised groups. Large language models (LLMs), such as GPT-4o, hold potential to enhance care but risk perpetuating biases present in their training data. This study aimed to systematically evaluate whether GPT-4o propagates biases in palliative care responses using adversarially designed datasets. In July 2024, GPT-4o was probed using the Palliative Care Adversarial Dataset (PCAD), and responses were evaluated by three palliative care experts in Canada and the United Kingdom using validated bias rubrics. The PCAD comprised PCAD-Direct (100 adversarial questions) and PCAD-Counterfactual (84 paired scenarios). These datasets targeted four care dimensions (access to care, pain management, advance care planning, and place of death preferences) and three identity axes (ethnicity, age, and diagnosis). Bias was detected in a substantial proportion of responses. For adversarial questions, the pooled bias rate was 0.33 (95% confidence interval [CI]: 0.28, 0.38); "allows biased premise" was the most frequently identified source of bias (0.47; 95% CI: 0.39, 0.55), such as failing to challenge stereotypes. For counterfactual scenarios, the pooled bias rate was 0.26 (95% CI: 0.20, 0.31), with "potential for withholding" as the most frequently identified source of bias (0.25; 95% CI: 0.18, 0.34), such as withholding interventions based on identity. Bias rates were consistent across care dimensions and identity axes. GPT-4o perpetuates biases in palliative care, with implications for clinical decision-making and equity. The PCAD datasets provide novel tools to assess and address LLM bias in palliative care.
- Abstract(参考訳): 緩和ケアにおけるバイアスと不平等は、疎外化グループに不均等に影響を及ぼす。
GPT-4oのような大規模言語モデル(LLM)は、トレーニングデータに存在するリスクの持続的バイアスを拡大する可能性を秘めている。
本研究の目的は,GPT-4oが対向的に設計されたデータセットを用いて,緩和ケア応答のバイアスを伝達するかどうかを体系的に評価することである。
2024年7月、GPT-4oはPCAD(Palliative Care Adversarial Dataset)を用いて調査され、カナダとイギリスの3人の緩和ケア専門家が評価した。
PCAD は PCAD-Direct (100 対の質問) と PCAD-Counterfactual (84 対のシナリオ) から構成されていた。
これらのデータセットは、4つのケアディメンション(ケアへのアクセス、痛みの管理、先進的なケア計画、死亡の好みの場所)と3つのアイデンティティー軸(倫理性、年齢、診断)を対象としていた。
バイアスは反応のかなりの割合で検出された。
反対の質問に対して、プールバイアス率は0.33(95%信頼区間[CI]: 0.28, 0.38)であり、ステレオタイプに挑戦できないなど、最も頻繁に特定されるバイアス源(0.47; 95%CI: 0.39, 0.55)であった。
対物的シナリオでは、プールバイアス率は0.26(95% CI: 0.20, 0.31)であり、アイデンティティに基づく介入の保持など、最も頻繁に特定されるバイアス源(0.25; 95% CI: 0.18, 0.34)である。
バイアスレートはケア次元とアイデンティティー軸で一致していた。
GPT-4oは、緩和ケアにおけるバイアスを持続させ、臨床的意思決定とエクイティに影響を及ぼす。
PCADデータセットは、緩和ケアにおけるLSMバイアスを評価し、対処するための新しいツールを提供する。
関連論文リスト
- How far can bias go? -- Tracing bias from pretraining data to alignment [54.51310112013655]
本研究では, 事前学習データにおける性別占有バイアスと, LLMにおける性別占有バイアスの相関について検討した。
その結果,事前学習データに存在するバイアスがモデル出力に増幅されることが判明した。
論文 参考訳(メタデータ) (2024-11-28T16:20:25Z) - Debias-CLR: A Contrastive Learning Based Debiasing Method for Algorithmic Fairness in Healthcare Applications [0.17624347338410748]
異なる治療と戦うために,暗黙の処理内脱バイアス法を提案した。
心不全患者の臨床記録と診断基準,治療報告,生理的活力について検討した。
Debias-CLRは、性別や民族を嫌う場合に、SC-WEAT(Single-Category Word Embedding Association Test)の効果を減少させることができた。
論文 参考訳(メタデータ) (2024-11-15T19:32:01Z) - Privacy-preserving federated prediction of pain intensity change based on multi-center survey data [0.0]
患者が報告した調査データは、医療改善を目的とした予後モデルをトレーニングするために使用される。
局所的に訓練されたモデルは、正確でなく、堅牢で、一般化可能である。
予後モデル構築のためのプライバシ保護フェデレーション機械学習技術を提案し,適用する。
論文 参考訳(メタデータ) (2024-09-12T12:41:58Z) - Medical Image Debiasing by Learning Adaptive Agreement from a Biased
Council [8.530912655468645]
ディープラーニングは、データセットバイアスによって得られたショートカットを学習する傾向があります。
その重要性にもかかわらず、データセットバイアスに対処する医療画像分類領域では、多くの研究が行われている。
本稿では,バイアスラベルに依存しないバイアス緩和フレームワークであるバイアスド・カウンシル(Ada-ABC)からの学習適応合意を提案する。
論文 参考訳(メタデータ) (2024-01-22T06:29:52Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Identifying and mitigating bias in algorithms used to manage patients in
a pandemic [4.756860520861679]
現実のデータセットを使用して、新型コロナウイルスの死亡率、人工呼吸器の状態、入院状態を予測するために、ロジスティック回帰モデルが作成された。
モデルではバイアス試験の回数が57%減少した。
キャリブレーション後, 予測モデルの平均感度は0.527から0.955に増加した。
論文 参考訳(メタデータ) (2021-10-30T21:10:56Z) - Conditional Cross-Design Synthesis Estimators for Generalizability in
Medicaid [0.1259953341639576]
本稿では,ランダム化データと観測データを組み合わせた新しい条件付きクロスデザイン合成推定器を提案する。
ニューヨーク市のメディケイド受給者の医療費に対する管理ケアプランの因果効果を推定するために,これらの手法を適用した。
論文 参考訳(メタデータ) (2021-09-27T18:20:32Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。