論文の概要: BenCao: An Instruction-Tuned Large Language Model for Traditional Chinese Medicine
- arxiv url: http://arxiv.org/abs/2510.17415v1
- Date: Mon, 20 Oct 2025 10:57:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.420893
- Title: BenCao: An Instruction-Tuned Large Language Model for Traditional Chinese Medicine
- Title(参考訳): BenCao: 伝統的な漢方医学のための指導型大規模言語モデル
- Authors: Jiacheng Xie, Yang Yu, Yibo Chen, Hanyao Zhang, Lening Zhao, Jiaxuan He, Lei Jiang, Xiaoting Tang, Guanghui An, Dong Xu,
- Abstract要約: 伝統的な中国医学(TCM)は、世界の医療において重要な役割を果たしている。
大規模言語モデル(LLM)をTCMに適用することは、全体的な推論、暗黙の論理、マルチモーダルな診断方法に依存しているため、依然として難しい。
我々は、TCMのためのChatGPTベースのマルチモーダルアシスタントであるBenCaoを開発し、構造化知識ベース、診断データ、専門家のフィードバック改善を統合した。
BenCaoは、パラメータの再訓練ではなく、自然言語のインストラクションチューニングを通じて訓練され、専門家レベルの推論とTCM特有の倫理的規範と整合した。
- 参考スコア(独自算出の注目度): 11.485720230834922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional Chinese Medicine (TCM), with a history spanning over two millennia, plays a role in global healthcare. However, applying large language models (LLMs) to TCM remains challenging due to its reliance on holistic reasoning, implicit logic, and multimodal diagnostic cues. Existing TCM-domain LLMs have made progress in text-based understanding but lack multimodal integration, interpretability, and clinical applicability. To address these limitations, we developed BenCao, a ChatGPT-based multimodal assistant for TCM, integrating structured knowledge bases, diagnostic data, and expert feedback refinement. BenCao was trained through natural language instruction tuning rather than parameter retraining, aligning with expert-level reasoning and ethical norms specific to TCM. The system incorporates a comprehensive knowledge base of over 1,000 classical and modern texts, a scenario-based instruction framework for diverse interactions, a chain-of-thought simulation mechanism for interpretable reasoning, and a feedback refinement process involving licensed TCM practitioners. BenCao connects to external APIs for tongue-image classification and multimodal database retrieval, enabling dynamic access to diagnostic resources. In evaluations across single-choice question benchmarks and multimodal classification tasks, BenCao achieved superior accuracy to general-domain and TCM-domain models, particularly in diagnostics, herb recognition, and constitution classification. The model was deployed as an interactive application on the OpenAI GPTs Store, accessed by nearly 1,000 users globally as of October 2025. This study demonstrates the feasibility of developing a TCM-domain LLM through natural language-based instruction tuning and multimodal integration, offering a practical framework for aligning generative AI with traditional medical reasoning and a scalable pathway for real-world deployment.
- Abstract(参考訳): 伝統的な中国医学(TCM)は、2千年以上にわたる歴史を持ち、世界の医療において重要な役割を果たしている。
しかし、大規模言語モデル(LLM)をTCMに適用することは、全体的な推論、暗黙の論理、マルチモーダルな診断方法に依存しているため、依然として困難である。
既存の TCM ドメイン LLM はテキストベースの理解に進歩しているが,マルチモーダル統合,解釈可能性,臨床応用性が欠如している。
これらの制約に対処するため、我々はChatGPTベースのTCM用マルチモーダルアシスタントであるBenCaoを開発し、構造化知識ベース、診断データ、専門家のフィードバック改善を統合した。
BenCaoは、パラメータの再訓練ではなく、自然言語のインストラクションチューニングを通じて訓練され、専門家レベルの推論とTCM特有の倫理的規範と整合した。
このシステムには、1000以上の古典的および近代的なテキストからなる包括的な知識ベース、多様な相互作用のためのシナリオベースの命令フレームワーク、解釈可能な推論のための連鎖シミュレーションメカニズム、およびライセンスされたTCM実践者によるフィードバック改善プロセスが含まれている。
BenCaoは、舌画像分類とマルチモーダルデータベース検索のための外部APIに接続し、診断リソースへの動的アクセスを可能にする。
単品問合せベンチマークとマルチモーダル分類タスクによる評価において、BenCaoは一般的なドメインモデルやTCMドメインモデル、特に診断、ハーブ認識、構成分類において優れた精度を達成した。
このモデルはOpenAI GPTs Storeでインタラクティブなアプリケーションとしてデプロイされ、2025年10月時点で全世界で1,000人近いユーザーがアクセスしている。
本研究は,TCMドメイン LLM を自然言語ベースの命令チューニングとマルチモーダル統合により実現可能であることを示し,生成AIを従来の医療的推論と整合させるための実践的な枠組みと,実世界の展開のためのスケーラブルな経路を提供する。
関連論文リスト
- RAD: Towards Trustworthy Retrieval-Augmented Multi-modal Clinical Diagnosis [56.373297358647655]
Retrieval-Augmented Diagnosis (RAD)は、下流タスクで直接マルチモーダルモデルに外部知識を注入する新しいフレームワークである。
RADは、複数の医療ソースからの疾患中心の知識の検索と改善、ガイドライン強化コントラスト損失トランスフォーマー、デュアルデコーダの3つの主要なメカニズムで機能する。
論文 参考訳(メタデータ) (2025-09-24T10:36:14Z) - A Knowledge-driven Adaptive Collaboration of LLMs for Enhancing Medical Decision-making [49.048767633316764]
KAMACは知識駆動のAdaptive Multi-Agent Collaborationフレームワークである。
エージェントは進化する診断コンテキストに基づいて、専門家チームを動的に形成および拡張することができる。
2つの実世界の医療ベンチマーク実験により、KAMACはシングルエージェント法と高度なマルチエージェント法の両方を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2025-09-18T14:33:36Z) - ShizhenGPT: Towards Multimodal LLMs for Traditional Chinese Medicine [53.91744478760689]
我々は、中国伝統医学(TCM)に適した最初の多モーダル言語モデルであるシージエンGPTを提示する。
シッシェンGPTは、深いTCM知識とマルチモーダル推論を達成するために、事前訓練され、訓練されている。
実験によると、ShizhenGPTはLLMよりも優れており、より大きなプロプライエタリモデルと競合する。
論文 参考訳(メタデータ) (2025-08-20T13:30:20Z) - MTCMB: A Multi-Task Benchmark Framework for Evaluating LLMs on Knowledge, Reasoning, and Safety in Traditional Chinese Medicine [36.08458917280579]
MTCMBは、知識QA、言語理解、診断推論、処方薬の生成、安全性評価の5つのカテゴリにまたがる12のサブデータセットから構成される。
予備的な結果は、現在のLSMは基礎知識でうまく機能するが、臨床推論、処方薬計画、安全コンプライアンスでは不足していることを示している。
論文 参考訳(メタデータ) (2025-06-02T02:01:40Z) - TCM-Ladder: A Benchmark for Multimodal Question Answering on Traditional Chinese Medicine [21.46828174190836]
我々は,大規模なTCM言語モデルを評価するために特別に設計された,最初のマルチモーダルQAデータセットであるTCM-Ladderを紹介する。
このデータセットは、基礎理論、診断、草本式、内科、外科、薬物療法、小児科を含む、TCMの複数の中核領域にまたがる。
データセットは、自動と手動のフィルタリングプロセスを組み合わせて構築され、合計で52,000以上の質問で構成されている。
論文 参考訳(メタデータ) (2025-05-29T23:13:57Z) - Tianyi: A Traditional Chinese Medicine all-rounder language model and its Real-World Clinical Practice [15.020917068333237]
Tianyiは、相互接続された、系統的なTCM知識を、進歩的な学習方法で同化するように設計されている。
広範囲な評価は、TCM臨床および研究におけるAIアシスタントとしてのTianyiの有意義な可能性を示している。
論文 参考訳(メタデータ) (2025-05-19T14:17:37Z) - PyTDC: A multimodal machine learning training, evaluation, and inference platform for biomedical foundation models [59.17570021208177]
PyTDCは、マルチモーダルな生物学的AIモデルのための合理化されたトレーニング、評価、推論ソフトウェアを提供する機械学習プラットフォームである。
本稿では、PyTDCのアーキテクチャの構成要素と、我々の知る限り、導入したシングルセルドラッグターゲットMLタスクにおける第一種ケーススタディについて論じる。
論文 参考訳(メタデータ) (2025-05-08T18:15:38Z) - OpenTCM: A GraphRAG-Empowered LLM-based System for Traditional Chinese Medicine Knowledge Retrieval and Diagnosis [2.639291045535649]
OpenTCMはドメイン固有の知識グラフであり、グラフベースの検索・拡張生成システムである。
我々は,中国医学古典データベースの68冊の婦人科本から,330万以上の漢文字を抽出した。
OpenTCMは、材料情報検索における4.378、診断質問応答タスクにおける4.045の平均エキスパートスコア(MES)を達成している。
論文 参考訳(メタデータ) (2025-04-28T08:04:44Z) - TCM-3CEval: A Triaxial Benchmark for Assessing Responses from Large Language Models in Traditional Chinese Medicine [10.74071774496229]
大規模言語モデル (LLMs) は, 様々なNLPタスクや現代医学に優れるが, 伝統的な漢方医学(TCM)における評価は過小評価されている。
そこで本研究では,TCM における LLM の評価を行うベンチマークである TCM3CEval について紹介する。
全てのモデルはメリディアン・アンド・アクポイント理論や様々なTCMスクールのような特殊性に制限があり、現在の能力と臨床ニーズのギャップを明らかにする。
論文 参考訳(メタデータ) (2025-03-10T08:29:15Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z) - UmlsBERT: Clinical Domain Knowledge Augmentation of Contextual
Embeddings Using the Unified Medical Language System Metathesaurus [73.86656026386038]
事前学習プロセス中にドメイン知識を統合するコンテキスト埋め込みモデルであるUmlsBERTを紹介する。
これらの2つの戦略を適用することで、UmlsBERTは、臨床領域の知識を単語埋め込みにエンコードし、既存のドメイン固有モデルより優れている。
論文 参考訳(メタデータ) (2020-10-20T15:56:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。