論文の概要: CURE-Med: Curriculum-Informed Reinforcement Learning for Multilingual Medical Reasoning
- arxiv url: http://arxiv.org/abs/2601.13262v1
- Date: Mon, 19 Jan 2026 17:51:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.998659
- Title: CURE-Med: Curriculum-Informed Reinforcement Learning for Multilingual Medical Reasoning
- Title(参考訳): curriculum-informed Reinforcement Learning for Multilingual Medical Reasoning
- Authors: Eric Onyame, Akash Ghosh, Subhadip Baidya, Sriparna Saha, Xiuying Chen, Chirag Agarwal,
- Abstract要約: 我々はCUREMED-BENCHを紹介した。CUREMED-BENCHは、高品質な多言語医療推論データセットであり、単一の検証可能な答えを持つオープンエンド推論クエリである。
本稿では,コードスイッチング・アウェア・教師付き微調整を統合したカリキュラムインフォームド強化学習フレームワークCURE-MEDを提案する。
13言語にまたがって、我々のアプローチは一貫して強いベースラインを上回り、効果的にスケールする。
- 参考スコア(独自算出の注目度): 38.90826150840053
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While large language models (LLMs) have shown to perform well on monolingual mathematical and commonsense reasoning, they remain unreliable for multilingual medical reasoning applications, hindering their deployment in multilingual healthcare settings. We address this by first introducing CUREMED-BENCH, a high-quality multilingual medical reasoning dataset with open-ended reasoning queries with a single verifiable answer, spanning thirteen languages, including underrepresented languages such as Amharic, Yoruba, and Swahili. Building on this dataset, we propose CURE-MED, a curriculum-informed reinforcement learning framework that integrates code-switching-aware supervised fine-tuning and Group Relative Policy Optimization to jointly improve logical correctness and language stability. Across thirteen languages, our approach consistently outperforms strong baselines and scales effectively, achieving 85.21% language consistency and 54.35% logical correctness at 7B parameters, and 94.96% language consistency and 70.04% logical correctness at 32B parameters. These results support reliable and equitable multilingual medical reasoning in LLMs. The code and dataset are available at https://cure-med.github.io/
- Abstract(参考訳): 大規模言語モデル(LLM)は、単言語数学的および常識推論においてよく機能することを示したが、多言語医療推論アプリケーションには信頼性が保たれず、多言語医療環境への展開を妨げている。
CUREMED-BENCHは、Amharic, Yoruba, Swahiliなどの表現不足言語を含む13言語にまたがる、単一の検証可能な1つの検証可能な推論クエリを備えた、高品質な多言語医療推論データセットである。
本データセットをベースとしたCURE-MEDは,コードスイッチングを意識した微調整とグループ相対ポリシー最適化を統合し,論理的正当性と言語安定性を両立させるカリキュラムインフォームド強化学習フレームワークである。
13言語にわたって、我々のアプローチは、強いベースラインとスケールを一貫して上回り、85.21%の言語一貫性、7Bパラメータで54.35%、言語一貫性94.96%、32Bパラメータで70.04%を達成している。
これらの結果は、LLMにおける信頼性と等価な多言語医療推論を支援する。
コードとデータセットはhttps://cure-med.github.io/で公開されている。
関連論文リスト
- Med-CoReasoner: Reducing Language Disparities in Medical Reasoning via Language-Informed Co-Reasoning [21.661351460956823]
我々はMed-CoReasonerを紹介した。Med-CoReasonerは言語インフォーム化された共推論フレームワークで、並列英語と局所言語推論を取り入れている。
この設計は、英語の推論の構造的堅牢性と、現地語で符号化された実践的な専門知識を組み合わせる。
我々は、Med-CoReasonerが、低リソース言語で特に顕著に増加し、平均5%の多言語推論性能を向上させることを示す。
論文 参考訳(メタデータ) (2026-01-13T06:51:40Z) - Code-Switching In-Context Learning for Cross-Lingual Transfer of Large Language Models [64.54005959758733]
我々は,コードスイッチング・イン・コンテキスト・ラーニング(CSICL)を,推論中の翻訳障壁を克服するための原則的かつ堅牢なアプローチとして導入する。
4つのLLM、6つのデータセット、10の言語にわたる広範な実験を行い、知識集約型ドメインと推論指向ドメインの両方にまたがる。
その結果、CSICLはX-ICLベースラインを一貫して上回り、ターゲット言語と見当たらない言語の両方で3.1%pと1.9%pを達成した。
論文 参考訳(メタデータ) (2025-10-07T08:35:42Z) - SwasthLLM: a Unified Cross-Lingual, Multi-Task, and Meta-Learning Zero-Shot Framework for Medical Diagnosis Using Contrastive Representations [0.4077787659104315]
SwasthLLMは、医用診断のための統一、ゼロショット、クロスランガル、マルチタスク学習フレームワークである。
英語、ヒンディー語、ベンガル語で、言語固有の微調整を必要としない。
SwasthLLMは97.22%、F1スコア97.17%という高い診断性能を達成している。
論文 参考訳(メタデータ) (2025-09-24T21:20:49Z) - MKG-Rank: Enhancing Large Language Models with Knowledge Graph for Multilingual Medical Question Answering [32.60615474034456]
多言語医療質問応答のための多言語知識グラフに基づく検索ランク付け(MKG-Rank)を提案する。
本フレームワークは、LLM推論に英語中心の総合的医療知識グラフを低コストで統合する。
中国語、日本語、韓国語、スワヒリ語にまたがる多言語医療QAベンチマークの大規模な評価は、MKG-RankがゼロショットLLMを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-03-20T13:25:03Z) - Bridging Language Barriers in Healthcare: A Study on Arabic LLMs [1.2006896500048552]
本稿では,多言語理解と医学知識の両方に熟練した大規模言語モデルを開発する上での課題について考察する。
言語比率を慎重に調整した大規模モデルは、母国語の臨床課題において優れた性能を発揮することが判明した。
論文 参考訳(メタデータ) (2025-01-16T20:24:56Z) - Building Multilingual Datasets for Predicting Mental Health Severity through LLMs: Prospects and Challenges [3.0382033111760585]
大規模言語モデル(LLM)は、メンタルヘルス支援システムを含む様々な医療分野に統合されつつある。
本稿では、広く使われているメンタルヘルスデータセットを英語から6言語に翻訳した新しい多言語適応法を提案する。
このデータセットは、精神状態を検出し、複数の言語にわたる重症度を評価する上で、LLMのパフォーマンスを総合的に評価することを可能にする。
論文 参考訳(メタデータ) (2024-09-25T22:14:34Z) - Towards Building Multilingual Language Model for Medicine [54.1382395897071]
6つの主要言語を含む約25.5Bトークンを含む多言語医療コーパスを構築した。
MMedBench と呼ばれる有理性を持つ多言語医療用多言語質問応答ベンチマークを提案する。
我々の最終モデルであるMMed-Llama 3は、8Bパラメータしか持たないが、MMedBenchおよび英語ベンチマークの他のすべてのオープンソースモデルと比較して優れた性能が得られる。
論文 参考訳(メタデータ) (2024-02-21T17:47:20Z) - Question Translation Training for Better Multilingual Reasoning [108.10066378240879]
大規模言語モデルは推論タスクにおいて魅力的なパフォーマンスを示すが、英語以外の言語ではより悪いパフォーマンスを示す傾向がある。
典型的な解決策は、命令データを興味のあるすべての言語に翻訳し、結果の多言語データをトレーニングすることである。
本稿では,X- English parallel question dataを微調整することで,推論する質問を英語に翻訳するモデルを訓練する。
論文 参考訳(メタデータ) (2024-01-15T16:39:10Z) - MAPO: Advancing Multilingual Reasoning through Multilingual Alignment-as-Preference Optimization [65.31411639849516]
本稿では,他言語の推論過程を支配言語と整合させるために,MAPO(Multilingual-Alignment-as-Preference Optimization)フレームワークを提案する。
具体的には,非支配言語と支配言語における回答の整合性について,既成の翻訳モデルを用いて検討する。
実験により、MAPOは様々なモデルの多言語推論において、安定して大幅な改善を達成できることが示された。
論文 参考訳(メタデータ) (2024-01-12T18:03:54Z) - Breaking Language Barriers in Multilingual Mathematical Reasoning: Insights and Observations [59.056367787688146]
本稿では, マルチリンガル数学推論 (xMR) LLM の探索と学習の先駆者である。
我々は10の異なる言語を含む最初の多言語数学推論命令データセットMGSM8KInstructを構築した。
翻訳を利用して、10個の異なる言語を含む最初の多言語数学推論命令データセットMGSM8KInstructを構築した。
論文 参考訳(メタデータ) (2023-10-31T08:09:20Z) - Learning to Learn Morphological Inflection for Resource-Poor Languages [105.11499402984482]
本稿では,メタラーニング問題として資源不足言語に対する形態的インフレクション(補題を表象形にマッピングする)の課題を提案する。
それぞれの言語を個別のタスクとして扱うことで、高速ソース言語からのデータを使ってモデルパラメータの集合を学習する。
3つのファミリーから29のターゲット言語を対象とする2つのモデルアーキテクチャの実験により、提案手法がすべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2020-04-28T05:13:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。