論文の概要: Dr. Bias: Social Disparities in AI-Powered Medical Guidance
- arxiv url: http://arxiv.org/abs/2510.09162v2
- Date: Thu, 16 Oct 2025 21:54:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 13:49:08.753925
- Title: Dr. Bias: Social Disparities in AI-Powered Medical Guidance
- Title(参考訳): バイアズ博士:AIによる医療指導における社会的格差
- Authors: Emma Kondrup, Anne Imouza,
- Abstract要約: 大規模言語モデル(LLM)は競争力を持つことがますます証明されている。
LLMを医療アドバイス生成に使用すると、社会集団間で体系的に異なる応答が生成されることを示す。
特に、内因性および間質性患者は、読みやすく、より複雑でないアドバイスを受ける。
- 参考スコア(独自算出の注目度): 0.04297070083645049
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid progress of Large Language Models (LLMs), the general public now has easy and affordable access to applications capable of answering most health-related questions in a personalized manner. These LLMs are increasingly proving to be competitive, and now even surpass professionals in some medical capabilities. They hold particular promise in low-resource settings, considering they provide the possibility of widely accessible, quasi-free healthcare support. However, evaluations that fuel these motivations highly lack insights into the social nature of healthcare, oblivious to health disparities between social groups and to how bias may translate into LLM-generated medical advice and impact users. We provide an exploratory analysis of LLM answers to a series of medical questions spanning key clinical domains, where we simulate these questions being asked by several patient profiles that vary in sex, age range, and ethnicity. By comparing natural language features of the generated responses, we show that, when LLMs are used for medical advice generation, they generate responses that systematically differ between social groups. In particular, Indigenous and intersex patients receive advice that is less readable and more complex. We observe these trends amplify when intersectional groups are considered. Considering the increasing trust individuals place in these models, we argue for higher AI literacy and for the urgent need for investigation and mitigation by AI developers to ensure these systemic differences are diminished and do not translate to unjust patient support. Our code is publicly available on GitHub.
- Abstract(参考訳): LLM(Large Language Models)の急速な進歩により、一般大衆は、パーソナライズされた方法でほとんどの健康に関する質問に答えることのできる、簡単で安価なアプリケーションにアクセスできるようになった。
これらのLSMは競争力があることがますます証明されつつあり、一部の医療能力で専門家を超越している。
低リソース環境では、広くアクセス可能で準自由な医療サポートを提供する可能性を考えると、彼らは特に約束する。
しかし、これらのモチベーションを刺激する評価は、医療の社会的性質、社会集団間の健康格差、偏見がLCM生成医療アドバイスやユーザに影響を与える可能性への洞察を欠いている。
そこで我々は, 性別, 年齢, 民族によって異なる複数の患者プロファイルから質問された質問をシミュレートし, 主要な臨床領域にまたがる一連の医学的質問に対するLCM回答の探索的分析を行った。
生成した回答の自然言語的特徴を比較することで, LLMを医療アドバイス生成に用いると, 社会集団間で体系的に異なる応答が生成されることを示す。
特に、内因性および間質性患者は、読みやすく、より複雑でないアドバイスを受ける。
我々はこれらの傾向が交叉群を考慮した場合の増幅を観察する。
これらのモデルにおける信頼度の高い個人の増加を考慮すると、より高いAIリテラシーと、これらのシステム的差異が減少し、不当な患者支援に変換されないことを保証するために、AI開発者による調査と緩和の緊急の必要性を論じる。
私たちのコードはGitHubで公開されています。
関連論文リスト
- TAMA: A Human-AI Collaborative Thematic Analysis Framework Using Multi-Agent LLMs for Clinical Interviews [54.35097932763878]
Thematic Analysis (TA) は、構造化されていないテキストデータの潜在意味を明らかにするために広く使われている定性的手法である。
本稿では,多エージェントLEMを用いた人間とAIの協調的テーマ分析フレームワークTAMAを提案する。
TAMA は既存の LLM 支援TA アプローチよりも優れており,高い主題的ヒット率,カバレッジ,独特性を実現している。
論文 参考訳(メタデータ) (2025-03-26T15:58:16Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - Fact or Guesswork? Evaluating Large Language Models' Medical Knowledge with Structured One-Hop Judgments [108.55277188617035]
大規模言語モデル(LLM)は、様々な下流タスクドメインで広く採用されているが、実際の医学的知識を直接呼び起こし、適用する能力は、まだ探索されていない。
標準化された語彙と知識グラフの包括的なリポジトリであるUMLS(Unified Medical Language System)から派生したデータセットであるMKJ(Messical Knowledge Judgment dataset)を紹介する。
バイナリ分類フレームワークを通じて、MKJは、簡潔なワンホップ文の妥当性を評価することによって、LCMが基本的な医学的事実を把握できることを評価する。
論文 参考訳(メタデータ) (2025-02-20T05:27:51Z) - Ask Patients with Patience: Enabling LLMs for Human-Centric Medical Dialogue with Grounded Reasoning [25.068780967617485]
大規模言語モデル(LLM)は潜在的な解決策を提供するが、現実の臨床的相互作用に苦慮する。
Ask patients with Patience (APP) は,基礎的推論,透明な診断,人間中心のインタラクションを目的とした多ターンLCMベースの医療アシスタントである。
APPは共感的対話を通じてユーザ症状を誘発することでコミュニケーションを強化し、アクセシビリティとユーザエンゲージメントを大幅に改善する。
論文 参考訳(メタデータ) (2025-02-11T00:13:52Z) - How Can We Diagnose and Treat Bias in Large Language Models for Clinical Decision-Making? [2.7476176772825904]
本研究では,大規模言語モデル(LLM)におけるバイアスの評価と緩和について検討する。
本稿では,JAMAクリニカルチャレンジから得られた新しいCPVデータセットについて紹介する。
このデータセットを用いて、複数の選択質問(MCQ)とそれに対応する説明を併用し、バイアス評価のためのフレームワークを構築した。
論文 参考訳(メタデータ) (2024-10-21T23:14:10Z) - Can AI Relate: Testing Large Language Model Response for Mental Health Support [23.97212082563385]
大型言語モデル(LLM)はすでにニューヨーク・ラングーン、ダナ・ファーバー、NHSなどの病院システムで臨床使用のために試験されている。
精神医療の自動化に向けて, LLM 反応が有効かつ倫理的な道筋であるか否かを評価するための評価枠組みを開発する。
論文 参考訳(メタデータ) (2024-05-20T13:42:27Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Yes, this is what I was looking for! Towards Multi-modal Medical
Consultation Concern Summary Generation [46.42604861624895]
マルチモーダル・メディカル・コンシューム・サマリ・ジェネレーションの新しい課題を提案する。
患者のジェスチャーや表情などの非言語的手がかりは、患者の懸念を正確に識別するのに役立つ。
マルチモーダル・メディカル・コンシューム・サマリー・ジェネレーション・コーパスを構築。
論文 参考訳(メタデータ) (2024-01-10T12:56:47Z) - ChiMed-GPT: A Chinese Medical Large Language Model with Full Training Regime and Better Alignment to Human Preferences [51.66185471742271]
我々は中国医学領域向けに明示的に設計されたベンチマークLSMであるChiMed-GPTを提案する。
ChiMed-GPTは、事前訓練、SFT、RLHFを含む総合的な訓練体制を実施。
我々は,ChiMed-GPTを患者識別に関する態度尺度の実行を促すことによって,潜在的なバイアスを分析した。
論文 参考訳(メタデータ) (2023-11-10T12:25:32Z) - Health Disparities through Generative AI Models: A Comparison Study
Using A Domain Specific large language model [0.0]
大規模言語モデル(LLM)と呼ばれる人工知能プログラムは、人間の言語を理解し、生成することができる。
本稿では,SciBERTのようなドメイン固有な大規模言語モデルの比較研究を紹介する。
臨床医は、患者と非同期に通信する際に、生成AIを使用してドラフトレスポンスを作成することができると信じている。
論文 参考訳(メタデータ) (2023-10-23T21:24:05Z) - Large language models in medicine: the potentials and pitfalls [20.419827231982623]
大規模言語モデル(LLM)は、医学的検査の質問から患者の質問への回答まで、医療のタスクに適用されている。
本総説は, 医療従事者を対象に, 医療現場におけるLCMの急速な変化状況を理解する上で, 医療実践者を支援することを目的としている。
論文 参考訳(メタデータ) (2023-08-31T19:06:39Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。