論文の概要: TCM-Eval: An Expert-Level Dynamic and Extensible Benchmark for Traditional Chinese Medicine
- arxiv url: http://arxiv.org/abs/2511.07148v1
- Date: Mon, 10 Nov 2025 14:35:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.302895
- Title: TCM-Eval: An Expert-Level Dynamic and Extensible Benchmark for Traditional Chinese Medicine
- Title(参考訳): TCM-Eval:中国の伝統医学のエキスパートレベルのダイナミックで拡張可能なベンチマーク
- Authors: Zihao Cheng, Yuheng Lu, Huaiqian Ye, Zeming Liu, Minqi Wang, Jingjing Liu, Zihan Li, Wei Fan, Yuanfang Guo, Ruiji Fu, Shifeng She, Gang Wang, Yunhong Wang,
- Abstract要約: 我々は,中国伝統医学(TCM)の最初のダイナミックで高品質なベンチマークであるTCM-Evalを紹介する。
大規模トレーニングコーパスを構築し,SI-CoTE(Self-Iterative Chain-of-Thought Enhancement)を提案する。
このリッチなトレーニングデータを用いて,TCM用に特別に設計された最先端LLMであるZhiMingTang(ZMT)を開発した。
- 参考スコア(独自算出の注目度): 51.01817637808011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable capabilities in modern medicine, yet their application in Traditional Chinese Medicine (TCM) remains severely limited by the absence of standardized benchmarks and the scarcity of high-quality training data. To address these challenges, we introduce TCM-Eval, the first dynamic and extensible benchmark for TCM, meticulously curated from national medical licensing examinations and validated by TCM experts. Furthermore, we construct a large-scale training corpus and propose Self-Iterative Chain-of-Thought Enhancement (SI-CoTE) to autonomously enrich question-answer pairs with validated reasoning chains through rejection sampling, establishing a virtuous cycle of data and model co-evolution. Using this enriched training data, we develop ZhiMingTang (ZMT), a state-of-the-art LLM specifically designed for TCM, which significantly exceeds the passing threshold for human practitioners. To encourage future research and development, we release a public leaderboard, fostering community engagement and continuous improvement.
- Abstract(参考訳): LLM(Large Language Models)は、現代医学において顕著な能力を示しているが、標準ベンチマークの欠如と高品質なトレーニングデータの不足により、伝統的な中国医学(TCM)への応用は依然として著しく制限されている。
これらの課題に対処するため,TCM専門家が実施したTCM-Evalは,全国の医学認定試験から慎重に評価し,TCM専門家が検証した,TCM-Evalの最初のダイナミックで拡張可能なベンチマークである。
さらに, 大規模学習コーパスを構築し, 自己決定的連鎖強化(SI-CoTE)を提案する。
このリッチなトレーニングデータを用いて,TCMに特化して設計された最先端のLLMであるZhiMingTang(ZMT)を開発した。
今後の研究開発を促進するため,我々は,コミュニティの関与と継続的な改善を促進すべく,公共のリーダーボードをリリースする。
関連論文リスト
- MedAlign: A Synergistic Framework of Multimodal Preference Optimization and Federated Meta-Cognitive Reasoning [52.064286116035134]
我々はMed-VQA(Med-VQA)のための視覚的LVLM応答を保証するフレームワークであるMedAlignを開発した。
まず、優先学習を視覚的コンテキストに合わせるために、マルチモーダルな直接選好最適化(mDPO)の目的を提案する。
次に、画像とテキストの類似性を生かし、クエリを専門的でコンテキスト拡張されたLVLMにルーティングする検索型混合処理(RA-MoE)アーキテクチャを設計する。
論文 参考訳(メタデータ) (2025-10-24T02:11:05Z) - Leveraging Group Relative Policy Optimization to Advance Large Language Models in Traditional Chinese Medicine [9.74563376905193]
グループ相対ポリシー最適化で訓練された最初のTCMにフォーカスした大規模言語モデルであるLadder-baseを紹介します。
Ladder-baseはQwen2.5-7B-Instructファンデーションモデルに基づいて構築され、TCM-Ladderベンチマークのテキストサブセットにのみ訓練されている。
論文 参考訳(メタデータ) (2025-10-20T10:43:33Z) - ShizhenGPT: Towards Multimodal LLMs for Traditional Chinese Medicine [53.91744478760689]
我々は、中国伝統医学(TCM)に適した最初の多モーダル言語モデルであるシージエンGPTを提示する。
シッシェンGPTは、深いTCM知識とマルチモーダル推論を達成するために、事前訓練され、訓練されている。
実験によると、ShizhenGPTはLLMよりも優れており、より大きなプロプライエタリモデルと競合する。
論文 参考訳(メタデータ) (2025-08-20T13:30:20Z) - MedKGent: A Large Language Model Agent Framework for Constructing Temporally Evolving Medical Knowledge Graph [57.54231831309079]
我々は、時間的に進化する医療知識グラフを構築するためのフレームワークであるMedKGentを紹介する。
生医学的知識の出現を, 微粒な日々の時系列でシミュレートする。
結果として得られるKGは156,275個のエンティティと2,971,384個のリレーショナルトリプルを含む。
論文 参考訳(メタデータ) (2025-08-17T15:14:03Z) - Tianyi: A Traditional Chinese Medicine all-rounder language model and its Real-World Clinical Practice [15.020917068333237]
Tianyiは、相互接続された、系統的なTCM知識を、進歩的な学習方法で同化するように設計されている。
広範囲な評価は、TCM臨床および研究におけるAIアシスタントとしてのTianyiの有意義な可能性を示している。
論文 参考訳(メタデータ) (2025-05-19T14:17:37Z) - BianCang: A Traditional Chinese Medicine Large Language Model [33.738284400742124]
そこで本研究では,まずドメイン固有知識を注入し,まず目標刺激によって調整し,診断と識別能力を向上させる,TCM固有の大規模言語モデルであるBianCangを提案する。
実際の病院記録に基づく事前学習コーパス,ChP-TCMデータセット,および中華人民共和国の薬局類由来のChP-TCMデータセットを構築した。
我々は,TCMと医用コーパスを総合的に収集し,TCMの理解を深めるための包括的データセットを構築した。
論文 参考訳(メタデータ) (2024-11-17T10:17:01Z) - Competence-based Multimodal Curriculum Learning for Medical Report
Generation [98.10763792453925]
本稿では,コンピテンスベースのマルチモーダルカリキュラム学習フレームワーク(CMCL)を提案する。
具体的には、CMCLは放射線学者の学習過程をシミュレートし、段階的にモデルを最適化する。
パブリックIU-XrayとMIMIC-CXRデータセットの実験は、CMCLを既存のモデルに組み込んでパフォーマンスを向上させることができることを示している。
論文 参考訳(メタデータ) (2022-06-24T08:16:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。