論文の概要: Dr. Bias: Social Disparities in AI-Powered Medical Guidance
- arxiv url: http://arxiv.org/abs/2510.09162v1
- Date: Fri, 10 Oct 2025 09:06:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.507763
- Title: Dr. Bias: Social Disparities in AI-Powered Medical Guidance
- Title(参考訳): バイアズ博士:AIによる医療指導における社会的格差
- Authors: Emma Kondrup, Anne Imouza,
- Abstract要約: 大規模言語モデル(LLM)は競争力を持つことがますます証明されている。
LLMを医療アドバイス生成に使用すると、社会集団間で体系的に異なる応答が生成されることを示す。
特に、内因性および間質性患者は、読みやすく、より複雑でないアドバイスを受ける。
- 参考スコア(独自算出の注目度): 0.04297070083645049
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid progress of Large Language Models (LLMs), the general public now has easy and affordable access to applications capable of answering most health-related questions in a personalized manner. These LLMs are increasingly proving to be competitive, and now even surpass professionals in some medical capabilities. They hold particular promise in low-resource settings, considering they provide the possibility of widely accessible, quasi-free healthcare support. However, evaluations that fuel these motivations highly lack insights into the social nature of healthcare, oblivious to health disparities between social groups and to how bias may translate into LLM-generated medical advice and impact users. We provide an exploratory analysis of LLM answers to a series of medical questions spanning key clinical domains, where we simulate these questions being asked by several patient profiles that vary in sex, age range, and ethnicity. By comparing natural language features of the generated responses, we show that, when LLMs are used for medical advice generation, they generate responses that systematically differ between social groups. In particular, Indigenous and intersex patients receive advice that is less readable and more complex. We observe these trends amplify when intersectional groups are considered. Considering the increasing trust individuals place in these models, we argue for higher AI literacy and for the urgent need for investigation and mitigation by AI developers to ensure these systemic differences are diminished and do not translate to unjust patient support. Our code is publicly available on GitHub.
- Abstract(参考訳): LLM(Large Language Models)の急速な進歩により、一般大衆は、パーソナライズされた方法でほとんどの健康に関する質問に答えることのできる、簡単で安価なアプリケーションにアクセスできるようになった。
これらのLSMは競争力があることがますます証明されつつあり、一部の医療能力で専門家を超越している。
低リソース環境では、広くアクセス可能で準自由な医療サポートを提供する可能性を考えると、彼らは特に約束する。
しかし、これらのモチベーションを刺激する評価は、医療の社会的性質、社会集団間の健康格差、偏見がLCM生成医療アドバイスやユーザに影響を与える可能性への洞察を欠いている。
そこで我々は, 性別, 年齢, 民族によって異なる複数の患者プロファイルから質問された質問をシミュレートし, 主要な臨床領域にまたがる一連の医学的質問に対するLCM回答の探索的分析を行った。
生成した回答の自然言語的特徴を比較することで, LLMを医療アドバイス生成に用いると, 社会集団間で体系的に異なる応答が生成されることを示す。
特に、内因性および間質性患者は、読みやすく、より複雑でないアドバイスを受ける。
我々はこれらの傾向が交叉群を考慮した場合の増幅を観察する。
これらのモデルにおける信頼度の高い個人の増加を考慮すると、より高いAIリテラシーと、これらのシステム的差異が減少し、不当な患者支援に変換されないことを保証するために、AI開発者による調査と緩和の緊急の必要性を論じる。
私たちのコードはGitHubで公開されています。
関連論文リスト
- Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - Ask Patients with Patience: Enabling LLMs for Human-Centric Medical Dialogue with Grounded Reasoning [25.068780967617485]
大規模言語モデル(LLM)は潜在的な解決策を提供するが、現実の臨床的相互作用に苦慮する。
Ask patients with Patience (APP) は,基礎的推論,透明な診断,人間中心のインタラクションを目的とした多ターンLCMベースの医療アシスタントである。
APPは共感的対話を通じてユーザ症状を誘発することでコミュニケーションを強化し、アクセシビリティとユーザエンゲージメントを大幅に改善する。
論文 参考訳(メタデータ) (2025-02-11T00:13:52Z) - Can AI Relate: Testing Large Language Model Response for Mental Health Support [23.97212082563385]
大型言語モデル(LLM)はすでにニューヨーク・ラングーン、ダナ・ファーバー、NHSなどの病院システムで臨床使用のために試験されている。
精神医療の自動化に向けて, LLM 反応が有効かつ倫理的な道筋であるか否かを評価するための評価枠組みを開発する。
論文 参考訳(メタデータ) (2024-05-20T13:42:27Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Yes, this is what I was looking for! Towards Multi-modal Medical
Consultation Concern Summary Generation [46.42604861624895]
マルチモーダル・メディカル・コンシューム・サマリ・ジェネレーションの新しい課題を提案する。
患者のジェスチャーや表情などの非言語的手がかりは、患者の懸念を正確に識別するのに役立つ。
マルチモーダル・メディカル・コンシューム・サマリー・ジェネレーション・コーパスを構築。
論文 参考訳(メタデータ) (2024-01-10T12:56:47Z) - ChiMed-GPT: A Chinese Medical Large Language Model with Full Training Regime and Better Alignment to Human Preferences [51.66185471742271]
我々は中国医学領域向けに明示的に設計されたベンチマークLSMであるChiMed-GPTを提案する。
ChiMed-GPTは、事前訓練、SFT、RLHFを含む総合的な訓練体制を実施。
我々は,ChiMed-GPTを患者識別に関する態度尺度の実行を促すことによって,潜在的なバイアスを分析した。
論文 参考訳(メタデータ) (2023-11-10T12:25:32Z) - Health Disparities through Generative AI Models: A Comparison Study
Using A Domain Specific large language model [0.0]
大規模言語モデル(LLM)と呼ばれる人工知能プログラムは、人間の言語を理解し、生成することができる。
本稿では,SciBERTのようなドメイン固有な大規模言語モデルの比較研究を紹介する。
臨床医は、患者と非同期に通信する際に、生成AIを使用してドラフトレスポンスを作成することができると信じている。
論文 参考訳(メタデータ) (2023-10-23T21:24:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。