論文の概要: The Biased Oracle: Assessing LLMs' Understandability and Empathy in Medical Diagnoses
- arxiv url: http://arxiv.org/abs/2511.00924v1
- Date: Sun, 02 Nov 2025 13:01:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.996112
- Title: The Biased Oracle: Assessing LLMs' Understandability and Empathy in Medical Diagnoses
- Title(参考訳): Oracleのバイアス: LLMの理解性と医療診断への共感を評価する
- Authors: Jianzhou Yao, Shunchang Liu, Guillaume Drui, Rikard Pettersson, Alessandro Blasimme, Sara Kijewski,
- Abstract要約: 臨床診断における2つの主要な大規模言語モデル (LLM) の評価を行った。
以上の結果から, LLMは社会デミノグラフィーの変数や患者条件に適応することが示唆された。
しかし、それらはまた、過度に複雑なコンテンツを生成し、偏見のある感情共感を表示し、不均一なアクセシビリティとサポートをもたらす。
- 参考スコア(独自算出の注目度): 35.62689455079826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) show promise for supporting clinicians in diagnostic communication by generating explanations and guidance for patients. Yet their ability to produce outputs that are both understandable and empathetic remains uncertain. We evaluate two leading LLMs on medical diagnostic scenarios, assessing understandability using readability metrics as a proxy and empathy through LLM-as-a-Judge ratings compared to human evaluations. The results indicate that LLMs adapt explanations to socio-demographic variables and patient conditions. However, they also generate overly complex content and display biased affective empathy, leading to uneven accessibility and support. These patterns underscore the need for systematic calibration to ensure equitable patient communication. The code and data are released: https://github.com/Jeffateth/Biased_Oracle
- Abstract(参考訳): 大規模言語モデル (LLM) は, 患者に対する説明やガイダンスを提示することにより, 臨床医の診断コミュニケーションを支援することを約束している。
しかし、理解可能かつ共感的であるアウトプットを生産する能力は、いまだに不明である。
医療診断のシナリオにおいて2つの主要なLCMを評価し,可読性指標を指標として理解可能性を評価し,人的評価と比較したLCM-as-a-Judge評価を通して共感を示した。
以上の結果から, LLMは社会デミノグラフィーの変数や患者条件に適応することが示唆された。
しかし、それらはまた、過度に複雑なコンテンツを生成し、偏見のある感情共感を表示し、不均一なアクセシビリティとサポートをもたらす。
これらのパターンは、患者との公平なコミュニケーションを確保するために、システマティックキャリブレーションの必要性を浮き彫りにしている。
コードとデータがリリースされた。 https://github.com/Jeffateth/Biased_Oracle
関連論文リスト
- Are LLM-generated plain language summaries truly understandable? A large-scale crowdsourced evaluation [7.867257950096845]
平凡な言語要約(PLS)は,臨床医と患者との効果的なコミュニケーションを促進するために不可欠である。
大規模言語モデル(LLM)は、最近PSS生成の自動化を約束しているが、その健康情報理解を支援する効果は未だ不明である。
LLM生成PSSの大規模クラウドソース評価をAmazon Mechanical Turkで実施し,150名を対象に実験を行った。
以上の結果から, LLMは主観的評価において人書きと区別できないPSSを生成できるが, 人書きPSSは理解度が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2025-05-15T15:31:17Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - Fact or Guesswork? Evaluating Large Language Models' Medical Knowledge with Structured One-Hop Judgments [108.55277188617035]
大規模言語モデル(LLM)は、様々な下流タスクドメインで広く採用されているが、実際の医学的知識を直接呼び起こし、適用する能力は、まだ探索されていない。
標準化された語彙と知識グラフの包括的なリポジトリであるUMLS(Unified Medical Language System)から派生したデータセットであるMKJ(Messical Knowledge Judgment dataset)を紹介する。
バイナリ分類フレームワークを通じて、MKJは、簡潔なワンホップ文の妥当性を評価することによって、LCMが基本的な医学的事実を把握できることを評価する。
論文 参考訳(メタデータ) (2025-02-20T05:27:51Z) - Ask Patients with Patience: Enabling LLMs for Human-Centric Medical Dialogue with Grounded Reasoning [25.068780967617485]
大規模言語モデル(LLM)は潜在的な解決策を提供するが、現実の臨床的相互作用に苦慮する。
Ask patients with Patience (APP) は,基礎的推論,透明な診断,人間中心のインタラクションを目的とした多ターンLCMベースの医療アシスタントである。
APPは共感的対話を通じてユーザ症状を誘発することでコミュニケーションを強化し、アクセシビリティとユーザエンゲージメントを大幅に改善する。
論文 参考訳(メタデータ) (2025-02-11T00:13:52Z) - MeDiSumQA: Patient-Oriented Question-Answer Generation from Discharge Letters [1.6135243915480502]
大規模言語モデル(LLM)は、医療情報を単純化してソリューションを提供する。
安全で患者に優しいテキスト生成のためのLCMの評価は、標準化された評価リソースが欠如しているため困難である。
MeDiSumQAはMIMIC-IV放電サマリーから自動パイプラインを通じて生成されたデータセットである。
論文 参考訳(メタデータ) (2025-02-05T15:56:37Z) - Retrieving Evidence from EHRs with LLMs: Possibilities and Challenges [18.56314471146199]
時間的制約を伴って患者に関連付けられた大量のメモは、実質的に不可能な証拠を手作業で特定する。
患者EHRにおける非構造的証拠を効率よく回収・要約するためのメカニズムとして, LLMを用いたゼロショット戦略を提案し, 評価した。
論文 参考訳(メタデータ) (2023-09-08T18:44:47Z) - Don't Ignore Dual Logic Ability of LLMs while Privatizing: A
Data-Intensive Analysis in Medical Domain [19.46334739319516]
本研究では, LLMの二重論理能力が, 医療領域の民営化過程における影響について検討した。
以上の結果から,LLMに汎用ドメイン二重論理データを組み込むことによって,LLMの二重論理能力が向上するだけでなく,精度も向上することが示唆された。
論文 参考訳(メタデータ) (2023-09-08T08:20:46Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。