論文の概要: CURE-Med: Curriculum-Informed Reinforcement Learning for Multilingual Medical Reasoning
- arxiv url: http://arxiv.org/abs/2601.13262v1
- Date: Mon, 19 Jan 2026 17:51:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.998659
- Title: CURE-Med: Curriculum-Informed Reinforcement Learning for Multilingual Medical Reasoning
- Title(参考訳): curriculum-informed Reinforcement Learning for Multilingual Medical Reasoning
- Authors: Eric Onyame, Akash Ghosh, Subhadip Baidya, Sriparna Saha, Xiuying Chen, Chirag Agarwal,
- Abstract要約: 我々はCUREMED-BENCHを紹介した。CUREMED-BENCHは、高品質な多言語医療推論データセットであり、単一の検証可能な答えを持つオープンエンド推論クエリである。
本稿では,コードスイッチング・アウェア・教師付き微調整を統合したカリキュラムインフォームド強化学習フレームワークCURE-MEDを提案する。
13言語にまたがって、我々のアプローチは一貫して強いベースラインを上回り、効果的にスケールする。
- 参考スコア(独自算出の注目度): 38.90826150840053
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While large language models (LLMs) have shown to perform well on monolingual mathematical and commonsense reasoning, they remain unreliable for multilingual medical reasoning applications, hindering their deployment in multilingual healthcare settings. We address this by first introducing CUREMED-BENCH, a high-quality multilingual medical reasoning dataset with open-ended reasoning queries with a single verifiable answer, spanning thirteen languages, including underrepresented languages such as Amharic, Yoruba, and Swahili. Building on this dataset, we propose CURE-MED, a curriculum-informed reinforcement learning framework that integrates code-switching-aware supervised fine-tuning and Group Relative Policy Optimization to jointly improve logical correctness and language stability. Across thirteen languages, our approach consistently outperforms strong baselines and scales effectively, achieving 85.21% language consistency and 54.35% logical correctness at 7B parameters, and 94.96% language consistency and 70.04% logical correctness at 32B parameters. These results support reliable and equitable multilingual medical reasoning in LLMs. The code and dataset are available at https://cure-med.github.io/
- Abstract(参考訳): 大規模言語モデル(LLM)は、単言語数学的および常識推論においてよく機能することを示したが、多言語医療推論アプリケーションには信頼性が保たれず、多言語医療環境への展開を妨げている。
CUREMED-BENCHは、Amharic, Yoruba, Swahiliなどの表現不足言語を含む13言語にまたがる、単一の検証可能な1つの検証可能な推論クエリを備えた、高品質な多言語医療推論データセットである。
本データセットをベースとしたCURE-MEDは,コードスイッチングを意識した微調整とグループ相対ポリシー最適化を統合し,論理的正当性と言語安定性を両立させるカリキュラムインフォームド強化学習フレームワークである。
13言語にわたって、我々のアプローチは、強いベースラインとスケールを一貫して上回り、85.21%の言語一貫性、7Bパラメータで54.35%、言語一貫性94.96%、32Bパラメータで70.04%を達成している。
これらの結果は、LLMにおける信頼性と等価な多言語医療推論を支援する。
コードとデータセットはhttps://cure-med.github.io/で公開されている。
関連論文リスト
- Med-CoReasoner: Reducing Language Disparities in Medical Reasoning via Language-Informed Co-Reasoning [21.661351460956823]
我々はMed-CoReasonerを紹介した。Med-CoReasonerは言語インフォーム化された共推論フレームワークで、並列英語と局所言語推論を取り入れている。
この設計は、英語の推論の構造的堅牢性と、現地語で符号化された実践的な専門知識を組み合わせる。
我々は、Med-CoReasonerが、低リソース言語で特に顕著に増加し、平均5%の多言語推論性能を向上させることを示す。
論文 参考訳(メタデータ) (2026-01-13T06:51:40Z) - SwasthLLM: a Unified Cross-Lingual, Multi-Task, and Meta-Learning Zero-Shot Framework for Medical Diagnosis Using Contrastive Representations [0.4077787659104315]
SwasthLLMは、医用診断のための統一、ゼロショット、クロスランガル、マルチタスク学習フレームワークである。
英語、ヒンディー語、ベンガル語で、言語固有の微調整を必要としない。
SwasthLLMは97.22%、F1スコア97.17%という高い診断性能を達成している。
論文 参考訳(メタデータ) (2025-09-24T21:20:49Z) - Bridging Language Barriers in Healthcare: A Study on Arabic LLMs [1.2006896500048552]
本稿では,多言語理解と医学知識の両方に熟練した大規模言語モデルを開発する上での課題について考察する。
言語比率を慎重に調整した大規模モデルは、母国語の臨床課題において優れた性能を発揮することが判明した。
論文 参考訳(メタデータ) (2025-01-16T20:24:56Z) - Building Multilingual Datasets for Predicting Mental Health Severity through LLMs: Prospects and Challenges [3.0382033111760585]
大規模言語モデル(LLM)は、メンタルヘルス支援システムを含む様々な医療分野に統合されつつある。
本稿では、広く使われているメンタルヘルスデータセットを英語から6言語に翻訳した新しい多言語適応法を提案する。
このデータセットは、精神状態を検出し、複数の言語にわたる重症度を評価する上で、LLMのパフォーマンスを総合的に評価することを可能にする。
論文 参考訳(メタデータ) (2024-09-25T22:14:34Z) - MAPO: Advancing Multilingual Reasoning through Multilingual Alignment-as-Preference Optimization [65.31411639849516]
本稿では,他言語の推論過程を支配言語と整合させるために,MAPO(Multilingual-Alignment-as-Preference Optimization)フレームワークを提案する。
具体的には,非支配言語と支配言語における回答の整合性について,既成の翻訳モデルを用いて検討する。
実験により、MAPOは様々なモデルの多言語推論において、安定して大幅な改善を達成できることが示された。
論文 参考訳(メタデータ) (2024-01-12T18:03:54Z) - Breaking Language Barriers in Multilingual Mathematical Reasoning: Insights and Observations [59.056367787688146]
本稿では, マルチリンガル数学推論 (xMR) LLM の探索と学習の先駆者である。
我々は10の異なる言語を含む最初の多言語数学推論命令データセットMGSM8KInstructを構築した。
翻訳を利用して、10個の異なる言語を含む最初の多言語数学推論命令データセットMGSM8KInstructを構築した。
論文 参考訳(メタデータ) (2023-10-31T08:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。