論文の概要: Med-CoReasoner: Reducing Language Disparities in Medical Reasoning via Language-Informed Co-Reasoning
- arxiv url: http://arxiv.org/abs/2601.08267v1
- Date: Tue, 13 Jan 2026 06:51:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.087307
- Title: Med-CoReasoner: Reducing Language Disparities in Medical Reasoning via Language-Informed Co-Reasoning
- Title(参考訳): Med-CoReasoner:言語インフォームド・コ推論による医療推論における言語格差の低減
- Authors: Fan Gao, Sherry T. Tong, Jiwoong Sohn, Jiahao Huang, Junfeng Jiang, Ding Xia, Piyalitt Ittichaiwong, Kanyakorn Veerakanjana, Hyunjae Kim, Qingyu Chen, Edison Marrese Taylor, Kazuma Kobayashi, Akkiko Aizawa, Irene Li,
- Abstract要約: 我々はMed-CoReasonerを紹介した。Med-CoReasonerは言語インフォーム化された共推論フレームワークで、並列英語と局所言語推論を取り入れている。
この設計は、英語の推論の構造的堅牢性と、現地語で符号化された実践的な専門知識を組み合わせる。
我々は、Med-CoReasonerが、低リソース言語で特に顕著に増加し、平均5%の多言語推論性能を向上させることを示す。
- 参考スコア(独自算出の注目度): 21.661351460956823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While reasoning-enhanced large language models perform strongly on English medical tasks, a persistent multilingual gap remains, with substantially weaker reasoning in local languages, limiting equitable global medical deployment. To bridge this gap, we introduce Med-CoReasoner, a language-informed co-reasoning framework that elicits parallel English and local-language reasoning, abstracts them into structured concepts, and integrates local clinical knowledge into an English logical scaffold via concept-level alignment and retrieval. This design combines the structural robustness of English reasoning with the practice-grounded expertise encoded in local languages. To evaluate multilingual medical reasoning beyond multiple-choice settings, we construct MultiMed-X, a benchmark covering seven languages with expert-annotated long-form question answering and natural language inference tasks, comprising 350 instances per language. Experiments across three benchmarks show that Med-CoReasoner improves multilingual reasoning performance by an average of 5%, with particularly substantial gains in low-resource languages. Moreover, model distillation and expert evaluation analysis further confirm that Med-CoReasoner produces clinically sound and culturally grounded reasoning traces.
- Abstract(参考訳): 推論の強化された大きな言語モデルは、英語の医学的タスクに強く依存するが、多言語間ギャップは持続的であり、現地語ではかなり弱い推論であり、平等なグローバルな医療展開を制限している。
このギャップを埋めるために、Med-CoReasonerという言語インフォームド・コレゾニング・フレームワークを導入し、並列英語と局所言語推論を取り入れ、それらを構造化概念に抽象化し、概念レベルのアライメントと検索を通じて、局所的な臨床知識を英語論理足場に統合する。
この設計は、英語の推論の構造的堅牢性と、現地語で符号化された実践的な専門知識を組み合わせる。
複数選択設定以上の多言語医療推論を評価するために,専門家による長文質問応答と自然言語推論タスクを備えた7つの言語を対象としたベンチマークであるMultiMed-Xを構築した。
3つのベンチマークでの実験では、Med-CoReasonerは、低リソース言語では特に顕著に増加し、平均5%の多言語推論性能を改善している。
さらに, モデル蒸留および専門家評価分析により, Med-CoReasonerが臨床的に健全で, 文化的根拠のある推論の痕跡を産生していることが確認された。
関連論文リスト
- Learn Globally, Speak Locally: Bridging the Gaps in Multilingual Reasoning [39.03934159726098]
M2Aは,マルチスケール多言語アライメントと,機械翻訳された質問に対する言語一貫性報酬を組み合わせた新しい手法である。
地理に基づく多言語事実推論ベンチマークであるGeoFact-Xと5言語での推論トレースを紹介する。
以上の結果から,M2Aは数学的および事実的推論タスクにおいて,多言語推論の忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2025-07-07T19:04:36Z) - A Pre-trained Framework for Multilingual Brain Decoding Using Non-invasive Recordings [9.11230353886722]
本稿では,多言語,多目的,多モーダルなデコーディングフレームワークを提案する。
様々な脳記録を、事前訓練された多言語モデルによって定義された統一意味空間にマッピングする。
提案するフレームワークは,BCIアプリケーションにおいて,表現不足の言語に不可欠な言語フェアネスを促進することができる。
論文 参考訳(メタデータ) (2025-06-03T04:34:22Z) - Language Matters: How Do Multilingual Input and Reasoning Paths Affect Large Reasoning Models? [59.970391602080205]
多言語トレーニングにも拘わらず、LRMはテスト時に高リソース言語での推論をデフォルトとする傾向にある。
文化的推論は、推論タスクのパフォーマンスを低下させるが、文化的なタスクに恩恵を与える一方、安全性評価は言語固有の振る舞いを示す。
論文 参考訳(メタデータ) (2025-05-23T02:46:18Z) - When Less Language is More: Language-Reasoning Disentanglement Makes LLMs Better Multilingual Reasoners [111.50503126693444]
言語固有のアブレーションは多言語推論性能を継続的に向上させることを示す。
トレーニング後のアブレーションと比較して、トレーニング不要のアブレーションは、計算オーバーヘッドを最小限に抑えながら、同等または優れた結果が得られる。
論文 参考訳(メタデータ) (2025-05-21T08:35:05Z) - Crosslingual Reasoning through Test-Time Scaling [51.55526326294275]
英語中心の推論言語モデル(RLM)に対する推論計算のスケールアップは、多くの言語における多言語数学的推論を改善する。
英語中心の RLM の CoT は自然に英語が主流であるが、引用された非英語入力を推論するための引用と思考のパターンは一貫して従っている。
我々は、ドメイン外推論の一般化、特にSTEMから文化常識の知識まで、英語においても、貧弱なドメイン外推論の一般化を観察する。
論文 参考訳(メタデータ) (2025-05-08T16:50:06Z) - Towards Building Multilingual Language Model for Medicine [54.1382395897071]
6つの主要言語を含む約25.5Bトークンを含む多言語医療コーパスを構築した。
MMedBench と呼ばれる有理性を持つ多言語医療用多言語質問応答ベンチマークを提案する。
我々の最終モデルであるMMed-Llama 3は、8Bパラメータしか持たないが、MMedBenchおよび英語ベンチマークの他のすべてのオープンソースモデルと比較して優れた性能が得られる。
論文 参考訳(メタデータ) (2024-02-21T17:47:20Z) - Med-UniC: Unifying Cross-Lingual Medical Vision-Language Pre-Training by
Diminishing Bias [38.26934474189853]
Med-UniC (Med-UniC) は、英語とスペイン語のマルチモーダル医療データを統合したものである。
Med-UniCは、5つの医療画像タスクと30以上の疾患を含む10のデータセットで優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-05-31T14:28:19Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。