論文の概要: Disparities in Multilingual LLM-Based Healthcare Q&A
- arxiv url: http://arxiv.org/abs/2510.17476v1
- Date: Mon, 20 Oct 2025 12:19:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.046658
- Title: Disparities in Multilingual LLM-Based Healthcare Q&A
- Title(参考訳): LLMに基づく多言語医療Q&Aにおける差異
- Authors: Ipek Baris Schlicht, Burcu Sayin, Zhixue Zhao, Frederik M. Labonté, Cesare Barbera, Marco Viviani, Paolo Rosso, Lucie Flek,
- Abstract要約: 多言語医療Q&A回答における事前学習源の言語間差異と事実整合性について検討した。
以上の結果から,ウィキペディアのカバー範囲とLLMのファクトアライメントの両面での言語間差が顕著であった。
推論時に非英語ウィキペディアからの文脈的抜粋を提供することは、事実的アライメントを文化的に関連のある知識へと効果的にシフトさせる。
- 参考スコア(独自算出の注目度): 15.114074152947971
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Equitable access to reliable health information is vital when integrating AI into healthcare. Yet, information quality varies across languages, raising concerns about the reliability and consistency of multilingual Large Language Models (LLMs). We systematically examine cross-lingual disparities in pre-training source and factuality alignment in LLM answers for multilingual healthcare Q&A across English, German, Turkish, Chinese (Mandarin), and Italian. We (i) constructed Multilingual Wiki Health Care (MultiWikiHealthCare), a multilingual dataset from Wikipedia; (ii) analyzed cross-lingual healthcare coverage; (iii) assessed LLM response alignment with these references; and (iv) conducted a case study on factual alignment through the use of contextual information and Retrieval-Augmented Generation (RAG). Our findings reveal substantial cross-lingual disparities in both Wikipedia coverage and LLM factual alignment. Across LLMs, responses align more with English Wikipedia, even when the prompts are non-English. Providing contextual excerpts from non-English Wikipedia at inference time effectively shifts factual alignment toward culturally relevant knowledge. These results highlight practical pathways for building more equitable, multilingual AI systems for healthcare.
- Abstract(参考訳): AIを医療に組み込む際には、信頼できる健康情報への適切なアクセスが不可欠である。
しかし、情報品質は言語によって異なり、多言語大言語モデル(LLM)の信頼性と一貫性に対する懸念が高まる。
英語,ドイツ語,トルコ語,中国語(マンダリン),イタリア語の多言語医療Q&Aに対するLLM回答の事前学習における言語間差異と事実整合性について,系統的に検討した。
我が家
(i)Wikipediaの多言語データセットであるMultiWikiHealthCare(MultiWikiHealthCare)を構築した。
(ii)言語間医療カバレッジの分析
三 それらの基準とLLM応答の整合性を評価すること。
(4) 文脈情報と検索強化世代(RAG)を用いて, 事実整合性に関する事例研究を行った。
以上の結果から,ウィキペディアのカバー範囲とLLMのファクトアライメントの両面において,言語間の相違が顕著であった。
LLM全体では、応答は英語のウィキペディアと一致しており、プロンプトは英語ではない。
推論時に非英語ウィキペディアからの文脈的抜粋を提供することは、事実的アライメントを文化的に関連のある知識へと効果的にシフトさせる。
これらの結果は、医療のためのより公平な多言語AIシステムを構築するための実践的な経路を強調している。
関連論文リスト
- Fact or Guesswork? Evaluating Large Language Models' Medical Knowledge with Structured One-Hop Judgments [108.55277188617035]
大規模言語モデル(LLM)は、様々な下流タスクドメインで広く採用されているが、実際の医学的知識を直接呼び起こし、適用する能力は、まだ探索されていない。
標準化された語彙と知識グラフの包括的なリポジトリであるUMLS(Unified Medical Language System)から派生したデータセットであるMKJ(Messical Knowledge Judgment dataset)を紹介する。
バイナリ分類フレームワークを通じて、MKJは、簡潔なワンホップ文の妥当性を評価することによって、LCMが基本的な医学的事実を把握できることを評価する。
論文 参考訳(メタデータ) (2025-02-20T05:27:51Z) - CALM: Unleashing the Cross-Lingual Self-Aligning Ability of Language Model Question Answering [42.92810049636768]
大規模言語モデル(LLM)は、言語固有の文化的知識と一般知識の両方を取得するために、多言語コーパスで事前訓練されている。
言語モデル(CALM)の言語間知識の整合性について検討する。
我々は、異なる言語間でモデルの知識を整合させるために、直接選好最適化(DPO)を用いる。
論文 参考訳(メタデータ) (2025-01-30T16:15:38Z) - Do LLMs Provide Consistent Answers to Health-Related Questions across Languages? [14.87110905165928]
英語,ドイツ語,トルコ語,中国語の健康問題に対するLarge Language Models (LLMs) による回答の整合性を検討した。
医療の誤報を広める可能性のある反応の重大な矛盾を明らかにした。
本研究は, 正確で公平な医療情報を確保するために, 言語間アライメントの改善の必要性を強調した。
論文 参考訳(メタデータ) (2025-01-24T18:51:26Z) - Multi-OphthaLingua: A Multilingual Benchmark for Assessing and Debiasing LLM Ophthalmological QA in LMICs [3.1894617416005855]
大型言語モデル(LLM)は、様々な眼科手術を自動化するための有望なソリューションを提供する。
LLMは、自然言語の問合せタスクにおいて、様々な言語で顕著に異なる性能を示してきた。
本研究は,複数言語にまたがる質問を手作業でキュレートした,最初の多言語眼科的質問答えベンチマークを提案する。
論文 参考訳(メタデータ) (2024-12-18T20:18:03Z) - Exploring Cross-lingual Latent Transplantation: Mutual Opportunities and Open Challenges [48.96952594416528]
現在の大規模言語モデル(LLM)は多言語能力と文化的適応性に不均衡を示すことが多い。
XTransplantフレームワークは、言語間で潜在的なアクティベーションを移植することで、英語と非英語のリソースの相補的な長所を利用することができる。
論文 参考訳(メタデータ) (2024-12-17T09:05:30Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - Crosslingual Capabilities and Knowledge Barriers in Multilingual Large Language Models [62.91524967852552]
大規模言語モデル(LLM)は、多言語コーパスの事前訓練のため、一般的に多言語である。
しかし、これらのモデルは言語間の対応する概念、すなわち言語を横断的に関連付けることができるだろうか?
本研究は,言語横断的タスクにおける最先端LLMの評価である。
論文 参考訳(メタデータ) (2024-06-23T15:15:17Z) - Better to Ask in English: Cross-Lingual Evaluation of Large Language
Models for Healthcare Queries [31.82249599013959]
大規模言語モデル(LLM)は、一般大衆が情報にアクセスし消費する方法を変えつつある。
LLMは印象的な言語理解と生成能力を示しているが、その安全性に関する懸念は依然として最重要である。
これらのLLMが非英語の文脈でどのように機能するかは、まだ不明である。
論文 参考訳(メタデータ) (2023-10-19T20:02:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。