論文の概要: ZhiFangDanTai: Fine-tuning Graph-based Retrieval-Augmented Generation Model for Traditional Chinese Medicine Formula
- arxiv url: http://arxiv.org/abs/2509.05867v1
- Date: Sat, 06 Sep 2025 23:48:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.746614
- Title: ZhiFangDanTai: Fine-tuning Graph-based Retrieval-Augmented Generation Model for Traditional Chinese Medicine Formula
- Title(参考訳): ZhiFangDanTai:中国伝統医学式のための微調整グラフベース検索拡張生成モデル
- Authors: ZiXuan Zhang, Bowen Hao, Yingjie Li, Hongzhi Yin,
- Abstract要約: 伝統的な中国医学(TCM)の公式は、疫病や複雑な疾患の治療に重要な役割を果たしている。
TCMの既存のモデルは、従来のアルゴリズムやディープラーニング技術を使って公式関係を分析する。
ZhiFangDanTaiはグラフベースのRetrieval-Augmented Generation(GraphRAG)とLarge Language Modelsの微調整を組み合わせたフレームワークである。
- 参考スコア(独自算出の注目度): 47.414400253177405
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional Chinese Medicine (TCM) formulas play a significant role in treating epidemics and complex diseases. Existing models for TCM utilize traditional algorithms or deep learning techniques to analyze formula relationships, yet lack comprehensive results, such as complete formula compositions and detailed explanations. Although recent efforts have used TCM instruction datasets to fine-tune Large Language Models (LLMs) for explainable formula generation, existing datasets lack sufficient details, such as the roles of the formula's sovereign, minister, assistant, courier; efficacy; contraindications; tongue and pulse diagnosis-limiting the depth of model outputs. To address these challenges, we propose ZhiFangDanTai, a framework combining Graph-based Retrieval-Augmented Generation (GraphRAG) with LLM fine-tuning. ZhiFangDanTai uses GraphRAG to retrieve and synthesize structured TCM knowledge into concise summaries, while also constructing an enhanced instruction dataset to improve LLMs' ability to integrate retrieved information. Furthermore, we provide novel theoretical proofs demonstrating that integrating GraphRAG with fine-tuning techniques can reduce generalization error and hallucination rates in the TCM formula task. Experimental results on both collected and clinical datasets demonstrate that ZhiFangDanTai achieves significant improvements over state-of-the-art models. Our model is open-sourced at https://huggingface.co/tczzx6/ZhiFangDanTai1.0.
- Abstract(参考訳): 伝統的な中国医学(TCM)の公式は、疫病や複雑な疾患の治療に重要な役割を果たしている。
TCMの既存のモデルは、従来のアルゴリズムやディープラーニング技術を使って公式関係を解析するが、完全な公式合成や詳細な説明のような包括的な結果を欠いている。
近年の取り組みでは、説明可能な公式生成のために大言語モデル(LLM)の微調整にTCM命令データセットを使用してきたが、既存のデータセットには、公式の主権、大臣、助手、クーリエの役割、有効性、禁忌、舌とパルスの診断によるモデル出力の深さの制限など、十分な詳細が不足している。
これらの課題に対処するため,グラフベースの検索・拡張生成(GraphRAG)とLLMファインチューニングを組み合わせたフレームワークであるZhiFangDanTaiを提案する。
ZhiFangDanTaiはGraphRAGを使用して構造化されたTCM知識を簡潔な要約に検索し、合成すると同時に、LLMが取得した情報を統合する能力を向上させるために拡張された命令データセットを構築している。
さらに,GraphRAGを微調整技術と組み合わせることで,TCM式タスクにおける一般化誤差や幻覚率を低減できることを示す新しい理論的証明を提案する。
ZhiFangDanTaiは、収集されたデータセットと臨床データセットの両方の実験結果から、最先端のモデルよりも大幅に改善されていることが示された。
私たちのモデルはhttps://huggingface.co/tczzx6/ZhiFangDanTai1.0でオープンソース化されています。
関連論文リスト
- DrKGC: Dynamic Subgraph Retrieval-Augmented LLMs for Knowledge Graph Completion across General and Biomedical Domains [13.63225871556018]
知識グラフ補完(KGC)は、既存の三重情報とテキスト情報を活用することにより、知識グラフ(KG)に欠落した三重情報を予測することを目的としている。
DrKGCは、KG内の構造埋め込みと論理ルールを学ぶために、フレキシブルで軽量なモデルトレーニング戦略を採用している。
そして、新しいボトムアップグラフ検索手法を利用して、学習ルールでガイドされた各クエリのサブグラフを抽出する。
論文 参考訳(メタデータ) (2025-05-31T20:56:54Z) - HC-LLM: Historical-Constrained Large Language Models for Radiology Report Generation [89.3260120072177]
本稿では,放射線学レポート生成のための歴史制約付き大規模言語モデル (HC-LLM) フレームワークを提案する。
胸部X線写真から経時的特徴と経時的特徴を抽出し,疾患の進行を捉える診断報告を行った。
特に,本手法は,テスト中の履歴データなしでも良好に動作し,他のマルチモーダル大規模モデルにも容易に適用可能である。
論文 参考訳(メタデータ) (2024-12-15T06:04:16Z) - LLaVA Needs More Knowledge: Retrieval Augmented Natural Language Generation with Knowledge Graph for Explaining Thoracic Pathologies [3.2221734920470797]
医用画像のための自然言語記述(NLE)を生成するために,知識グラフ(KG)ベースのデータストアを付加したビジョンランゲージフレームワークを提案する。
本フレームワークでは,生成した説明の精度を向上するだけでなく,直接データ検索を回避してデータのプライバシーを保護できるKGベースの検索機構を採用している。
これらのフレームワークはMIMIC-NLEデータセット上で検証され、最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-10-07T04:59:08Z) - R2GenCSR: Retrieving Context Samples for Large Language Model based X-ray Medical Report Generation [7.4871243017824165]
本稿では,新しいコンテキスト誘導型効率的なX線医療報告生成フレームワークを提案する。
具体的には、線形複雑度を持つ視覚バックボーンとしてMambaを導入し、得られた性能は強力なTransformerモデルに匹敵する。
論文 参考訳(メタデータ) (2024-08-19T07:15:11Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - An Iterative Optimizing Framework for Radiology Report Summarization with ChatGPT [80.33783969507458]
放射線医学報告の「印象」セクションは、放射線医と他の医師とのコミュニケーションにとって重要な基盤である。
近年の研究では、大規模医療用テキストデータを用いた印象自動生成の有望な成果が得られている。
これらのモデルは、しばしば大量の医療用テキストデータを必要とし、一般化性能が劣る。
論文 参考訳(メタデータ) (2023-04-17T17:13:42Z) - Dynamic Graph Enhanced Contrastive Learning for Chest X-ray Report
Generation [92.73584302508907]
コントラスト学習を用いた医療レポート作成を支援するために,動的構造とノードを持つ知識グラフを提案する。
詳しくは、グラフの基本構造は一般知識から事前構築される。
各イメージ機能は、レポート生成のためにデコーダモジュールに入力する前に、独自の更新グラフに統合される。
論文 参考訳(メタデータ) (2023-03-18T03:53:43Z) - Scientific Language Models for Biomedical Knowledge Base Completion: An
Empirical Study [62.376800537374024]
我々は,KG の完成に向けた科学的 LM の研究を行い,生物医学的リンク予測を強化するために,その潜在知識を活用できるかどうかを探る。
LMモデルとKG埋め込みモデルを統合し,各入力例をいずれかのモデルに割り当てることを学ぶルータ法を用いて,性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-06-17T17:55:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。