論文の概要: TCM-DiffRAG: Personalized Syndrome Differentiation Reasoning Method for Traditional Chinese Medicine based on Knowledge Graph and Chain of Thought
- arxiv url: http://arxiv.org/abs/2602.22828v1
- Date: Thu, 26 Feb 2026 10:11:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.641087
- Title: TCM-DiffRAG: Personalized Syndrome Differentiation Reasoning Method for Traditional Chinese Medicine based on Knowledge Graph and Chain of Thought
- Title(参考訳): TCM-DiffRAG:知識グラフと思考の連鎖に基づく中国伝統医学におけるパーソナライズドシンドローム分化推論法
- Authors: Jianmin Li, Ying Chang, Su-Kit Tang, Yujia Liu, Yanwen Wang, Shuyuan Lin, Binkai Ou,
- Abstract要約: 検索型拡張生成(RAG)技術は、大規模言語モデル(LLM)に、微調整なしでより正確で専門的でタイムリーな応答を生成することができる。
本研究の目的は,TCM推論の特性に合わせて改良されたRAGフレームワークを開発することである。
我々は知識グラフ(KG)と思考の連鎖(CoT)を統合する革新的なRAGフレームワークであるTCM-DiffRAGを開発した。
- 参考スコア(独自算出の注目度): 9.263031362046098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Background: Retrieval augmented generation (RAG) technology can empower large language models (LLMs) to generate more accurate, professional, and timely responses without fine tuning. However, due to the complex reasoning processes and substantial individual differences involved in traditional Chinese medicine (TCM) clinical diagnosis and treatment, traditional RAG methods often exhibit poor performance in this domain. Objective: To address the limitations of conventional RAG approaches in TCM applications, this study aims to develop an improved RAG framework tailored to the characteristics of TCM reasoning. Methods: We developed TCM-DiffRAG, an innovative RAG framework that integrates knowledge graphs (KG) with chains of thought (CoT). TCM-DiffRAG was evaluated on three distinctive TCM test datasets. Results: The experimental results demonstrated that TCM-DiffRAG achieved significant performance improvements over native LLMs. For example, the qwen-plus model achieved scores of 0.927, 0.361, and 0.038, which were significantly enhanced to 0.952, 0.788, and 0.356 with TCM-DiffRAG. The improvements were even more pronounced for non-Chinese LLMs. Additionally, TCM-DiffRAG outperformed directly supervised fine-tuned (SFT) LLMs and other benchmark RAG methods. Conclusions: TCM-DiffRAG shows that integrating structured TCM knowledge graphs with Chain of Thought based reasoning substantially improves performance in individualized diagnostic tasks. The joint use of universal and personalized knowledge graphs enables effective alignment between general knowledge and clinical reasoning. These results highlight the potential of reasoning-aware RAG frameworks for advancing LLM applications in traditional Chinese medicine.
- Abstract(参考訳): 背景: Retrieval augmented generation (RAG)技術は、大規模言語モデル(LLM)に、微調整なしでより正確で専門的でタイムリーな応答を生成することができる。
しかしながら、中国伝統医学(TCM)の臨床診断と治療にまつわる複雑な推論過程と実質的な個人差のため、従来のRAG法は、この領域での性能が劣ることが多い。
目的: TCMアプリケーションにおける従来のRAGアプローチの限界に対処するため,本研究では,TCM推論の特性に合わせて改良されたRAGフレームワークを開発することを目的とする。
方法:我々は知識グラフ(KG)と思考の連鎖(CoT)を統合する革新的なRAGフレームワークであるTCM-DiffRAGを開発した。
TCM-DiffRAGは3つのTCMテストデータセットで評価された。
結果: 実験結果から, TCM-DiffRAGはネイティブLLMよりも優れた性能を示した。
例えば、qwen-plusモデルは0.927、0.361、0.038のスコアを獲得し、TCM-DiffRAGでは0.952、0.788、0.356に大幅に向上した。
改良は中国以外のLLMにとってさらに顕著であった。
さらに、TCM-DiffRAGは直接教師付き微調整 (SFT) LLMと他のベンチマークRAG法よりも優れていた。
結論: TCM-DiffRAGは構造化されたTCM知識グラフとChain of Thoughtに基づく推論を統合することにより、個別化診断タスクのパフォーマンスが大幅に向上することを示した。
ユニバーサルな知識グラフとパーソナライズされた知識グラフの併用は、一般的な知識と臨床推論の効果的なアライメントを可能にする。
これらの結果は,従来の中国医学におけるLCMの応用を推理するRAGフレームワークの可能性を強調した。
関連論文リスト
- MMedExpert-R1: Strengthening Multimodal Medical Reasoning via Domain-Specific Adaptation and Clinical Guideline Reinforcement [63.82954136824963]
医療ビジョンランゲージモデルでは、現実世界のシナリオで必要とされる複雑な臨床推論を伴う知覚タスクが優れている。
本稿ではドメイン固有の適応とガイドライン強化を通じてこれらの課題に対処する新しい推論MedVLMを提案する。
論文 参考訳(メタデータ) (2026-01-16T02:32:07Z) - Leveraging Group Relative Policy Optimization to Advance Large Language Models in Traditional Chinese Medicine [9.74563376905193]
グループ相対ポリシー最適化で訓練された最初のTCMにフォーカスした大規模言語モデルであるLadder-baseを紹介します。
Ladder-baseはQwen2.5-7B-Instructファンデーションモデルに基づいて構築され、TCM-Ladderベンチマークのテキストサブセットにのみ訓練されている。
論文 参考訳(メタデータ) (2025-10-20T10:43:33Z) - LGE-Guided Cross-Modality Contrastive Learning for Gadolinium-Free Cardiomyopathy Screening in Cine CMR [51.11296719862485]
CMRを用いたガドリニウムフリー心筋症スクリーニングのためのコントラシブラーニングおよびクロスモーダルアライメントフレームワークを提案する。
CMRとLate Gadolinium Enhancement (LGE) 配列の潜伏空間を整列させることにより, 本モデルでは線維症特異的な病理組織をCMR埋め込みにエンコードする。
論文 参考訳(メタデータ) (2025-08-23T07:21:23Z) - ShizhenGPT: Towards Multimodal LLMs for Traditional Chinese Medicine [53.91744478760689]
我々は、中国伝統医学(TCM)に適した最初の多モーダル言語モデルであるシージエンGPTを提示する。
シッシェンGPTは、深いTCM知識とマルチモーダル推論を達成するために、事前訓練され、訓練されている。
実験によると、ShizhenGPTはLLMよりも優れており、より大きなプロプライエタリモデルと競合する。
論文 参考訳(メタデータ) (2025-08-20T13:30:20Z) - MedCoT-RAG: Causal Chain-of-Thought RAG for Medical Question Answering [4.285647375182588]
大規模言語モデル (LLM) は医学的な疑問に答える上で有望であるが、幻覚や浅い推論に苦しむことが多い。
Retrieval-augmented Generation (RAG)は、外部の医療知識でLSMを強化するための実用的でプライバシー保護の手段を提供する。
MedCoT-RAGは、因果認識ドキュメント検索と構造化チェーン・オブ・シークレット・プロンプトを組み合わせたドメイン固有フレームワークである。
論文 参考訳(メタデータ) (2025-08-20T05:43:26Z) - MMed-RAG: Versatile Multimodal RAG System for Medical Vision Language Models [49.765466293296186]
近年,Med-LVLM (Med-LVLMs) の進歩により,対話型診断ツールの新たな可能性が高まっている。
Med-LVLMは、しばしば事実の幻覚に悩まされ、誤った診断につながることがある。
我々は,Med-LVLMの現実性を高めるために,多目的マルチモーダルRAGシステムMMed-RAGを提案する。
論文 参考訳(メタデータ) (2024-10-16T23:03:27Z) - SarcNet: A Novel AI-based Framework to Automatically Analyze and Score Sarcomere Organizations in Fluorescently Tagged hiPSC-CMs [9.20965688800047]
ヒト多能性幹細胞由来心筋細胞(hiPSC-CMs)におけるサルコメア構造の定量化は、心臓疾患の病態の解明、薬物スクリーニングの改善、再生医療の進展に不可欠である。
本稿では, 細胞画像を活用し, 細胞の特徴を統合し, 分化の開始からhiPSC-CMのサーコメア構造を自動的に評価する, 新たなディープラーニングベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-28T07:48:10Z) - TCM-GPT: Efficient Pre-training of Large Language Models for Domain
Adaptation in Traditional Chinese Medicine [11.537289359051975]
ドメイン固有コーパスを用いた効率的な事前学習を行うTCMDA(TCM Domain Adaptation)アプローチを提案する。
具体的には、まず、ドメインキーワードを識別し、一般コーパスから再帰することで、TCM固有の大規模コーパスTCM-Corpus-1Bを構築する。
そこで,本TCMDAでは,事前学習および微調整のために,事前学習したモデルの重量を凍結するLoRAを活用し,ランク分解行列を用いて特定の密度層を効率的に訓練する。
論文 参考訳(メタデータ) (2023-11-03T08:54:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。