論文の概要: Toward Global Large Language Models in Medicine
- arxiv url: http://arxiv.org/abs/2601.02186v1
- Date: Mon, 05 Jan 2026 15:05:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.23339
- Title: Toward Global Large Language Models in Medicine
- Title(参考訳): 医学における大域的言語モデルに向けて
- Authors: Rui Yang, Huitao Li, Weihao Xuan, Heli Qi, Xin Li, Kunyu Yu, Yingjian Chen, Rongrong Wang, Jacques Behmoaras, Tianxi Cai, Bibhas Chakraborty, Qingyu Chen, Lionel Tim-Ee Cheng, Marie-Louise Damwanza, Chido Dzinotyiwei, Aosong Feng, Chuan Hong, Yusuke Iwasawa, Yuhe Ke, Linah Kitala, Taehoon Ko, Jisan Lee, Irene Li, Jonathan Chong Kai Liew, Hongfang Liu, Lian Leng Low, Edison Marrese-Taylor, Yutaka Matsuo, Isheanesu Misi, Yilin Ning, Jasmine Chiat Ling Ong, Marcus Eng Hock Ong, Enrico Petretto, Hossein Rouhizadeh, Abiram Sandralegar, Oren Schreier, Iain Bee Huat Tan, Patrick Tan, Daniel Shu Wei Ting, Junjue Wang, Chunhua Weng, Matthew Yu Heng Wong, Fang Wu, Yunze Xiao, Xuhai Xu, Qingcheng Zeng, Zhuo Zheng, Yifan Peng, Douglas Teodoro, Nan Liu,
- Abstract要約: GlobMedは、12言語にまたがる50,000以上のエントリを含む、大規模な多言語医療データセットである。
GlobMed-Benchは、複数の多言語医療タスクにわたる56の最先端のプロプライエタリでオープンなLLMを評価し、言語間での大幅なパフォーマンス格差を明らかにしている。
GlobMed-LLMはベースラインモデルと比較して平均40%以上のパフォーマンス向上を実現し、低リソース言語では3倍以上のパフォーマンス向上を実現した。
- 参考スコア(独自算出の注目度): 67.38063166560406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite continuous advances in medical technology, the global distribution of health care resources remains uneven. The development of large language models (LLMs) has transformed the landscape of medicine and holds promise for improving health care quality and expanding access to medical information globally. However, existing LLMs are primarily trained on high-resource languages, limiting their applicability in global medical scenarios. To address this gap, we constructed GlobMed, a large multilingual medical dataset, containing over 500,000 entries spanning 12 languages, including four low-resource languages. Building on this, we established GlobMed-Bench, which systematically assesses 56 state-of-the-art proprietary and open-weight LLMs across multiple multilingual medical tasks, revealing significant performance disparities across languages, particularly for low-resource languages. Additionally, we introduced GlobMed-LLMs, a suite of multilingual medical LLMs trained on GlobMed, with parameters ranging from 1.7B to 8B. GlobMed-LLMs achieved an average performance improvement of over 40% relative to baseline models, with a more than threefold increase in performance on low-resource languages. Together, these resources provide an important foundation for advancing the equitable development and application of LLMs globally, enabling broader language communities to benefit from technological advances.
- Abstract(参考訳): 医療技術の継続的な進歩にもかかわらず、世界の医療資源の分布は不均一である。
大規模言語モデル(LLM)の開発は医療の景観を変革させ、医療の質の向上と世界中の医療情報へのアクセス拡大を約束している。
しかし、既存のLLMは、主に高リソース言語で訓練されており、グローバルな医療シナリオにおける適用性を制限している。
このギャップに対処するため、GlobMedという大規模な多言語医療データセットを構築しました。
これに基づいてGlobMed-Benchを構築し、複数の多言語医療タスクにおいて56の最先端のプロプライエタリかつオープンウェイトなLLMを体系的に評価し、特に低リソース言語において、言語間での大幅なパフォーマンス格差を明らかにした。
さらにGlobMed-LLMsを導入した。これはGlobMedで訓練された多言語医療用LLMのスイートで、パラメータは1.7Bから8Bまでである。
GlobMed-LLMはベースラインモデルと比較して平均40%以上のパフォーマンス向上を実現し、低リソース言語では3倍以上のパフォーマンス向上を実現した。
これらの資源は、LLMの平等な開発と適用をグローバルに進めるための重要な基盤となり、より広範な言語コミュニティが技術進歩の恩恵を受けることができる。
関連論文リスト
- Apollo: A Lightweight Multilingual Medical LLM towards Democratizing Medical AI to 6B People [68.59917533894608]
我々は6つの最も広く話されている言語にまたがる医療用LLMの開発を目指しており、世界人口は610億人である。
この取り組みは、ApolloCorpora多言語医療データセットとXMedBenchベンチマークの作成で頂点に達した。
トレーニングコーパス、コード、モデルの重み付け、評価ベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2024-03-06T11:56:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。