論文の概要: Building a Chinese Medical Dialogue System: Integrating Large-scale Corpora and Novel Models
- arxiv url: http://arxiv.org/abs/2410.03521v2
- Date: Tue, 25 Feb 2025 02:17:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:20:20.532993
- Title: Building a Chinese Medical Dialogue System: Integrating Large-scale Corpora and Novel Models
- Title(参考訳): 中国の医療対話システムの構築:大規模コーパスと新しいモデルの統合
- Authors: Xinyuan Wang, Haozhou Li, Dingfang Zheng, Qinke Peng,
- Abstract要約: 新型コロナウイルス(COVID-19)のパンデミックは、従来の医療システムに大きな欠陥を生じさせ、オンライン医療サービスの進歩を加速させた。
既存の研究は2つの大きな課題に直面している。
まず、プライバシー上の懸念から、大規模で公開可能な、ドメイン固有の医療データセットの不足。
第二に、既存の方法には医療知識がなく、患者医師相談における専門用語や表現の理解に苦慮している。
- 参考スコア(独自算出の注目度): 2.04367431902848
- License:
- Abstract: The global COVID-19 pandemic underscored major deficiencies in traditional healthcare systems, hastening the advancement of online medical services, especially in medical triage and consultation. However, existing studies face two main challenges. First, the scarcity of large-scale, publicly available, domain-specific medical datasets due to privacy concerns, with current datasets being small and limited to a few diseases, limiting the effectiveness of triage methods based on Pre-trained Language Models (PLMs). Second, existing methods lack medical knowledge and struggle to accurately understand professional terms and expressions in patient-doctor consultations. To overcome these obstacles, we construct the Large-scale Chinese Medical Dialogue Corpora (LCMDC), thereby addressing the data shortage in this field. Moreover, we further propose a novel triage system that combines BERT-based supervised learning with prompt learning, as well as a GPT-based medical consultation model. To enhance domain knowledge acquisition, we pre-trained PLMs using our self-constructed background corpus. Experimental results on the LCMDC demonstrate the efficacy of our proposed systems.
- Abstract(参考訳): 世界規模の新型コロナウイルス(COVID-19)パンデミックは、従来の医療システムに大きな欠陥を指摘し、オンライン医療サービス、特に医療トリアージやコンサルティングの進歩を加速させた。
しかし、既存の研究は2つの大きな課題に直面している。
まず、プライバシ上の懸念による、大規模で公開可能なドメイン固有の医療データセットの不足。現在のデータセットは小さく、少数の疾患に限定されており、事前訓練された言語モデル(PLM)に基づいたトリアージメソッドの有効性が制限されている。
第二に、既存の方法には医療知識がなく、患者医師相談における専門用語や表現の理解に苦慮している。
これらの障害を克服するため、我々は大規模な中国医学対話コーパス(LCMDC)を構築し、この分野におけるデータ不足に対処する。
さらに,BERTに基づく教師あり学習と即時学習を組み合わせたトリアージシステムと,GPTベースの医療相談モデルを提案する。
ドメイン知識の獲得を促進するため,自己構築型バックグラウンドコーパスを用いてPLMを事前学習した。
LCMDC実験の結果,提案方式の有効性が示された。
関連論文リスト
- IIMedGPT: Promoting Large Language Model Capabilities of Medical Tasks by Efficient Human Preference Alignment [6.022433954095106]
実際の医療課題から派生した6つの医療指導を含む医療指導データセットCMedINSを紹介した。
次に、効率的な選好アライメント手法を用いて、医用モデルIIMedGPTをローンチする。
その結果,本研究の最終モデルは医療対話における既存の医療モデルよりも優れていた。
論文 参考訳(メタデータ) (2025-01-06T09:22:36Z) - BianCang: A Traditional Chinese Medicine Large Language Model [22.582027277167047]
BianCangはTCM固有の大規模言語モデル(LLM)で、まずドメイン固有の知識を注入し、目標とする刺激によって調整する。
実際の病院記録に基づく事前学習コーパス,ChP-TCMデータセット,および中華人民共和国の薬局類由来のChP-TCMデータセットを構築した。
我々は,TCMの理解を深めるための包括的なデータセットを構築し,連続的な事前学習と微調整のための広範囲なTCMと医療コーパスを収集した。
論文 参考訳(メタデータ) (2024-11-17T10:17:01Z) - RuleAlign: Making Large Language Models Better Physicians with Diagnostic Rule Alignment [54.91736546490813]
本稿では,大規模言語モデルと特定の診断規則との整合性を考慮したルールアラインフレームワークを提案する。
患者と医師間の規則に基づくコミュニケーションを含む医療対話データセットを開発した。
実験の結果,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-08-22T17:44:40Z) - Towards Evaluating and Building Versatile Large Language Models for Medicine [57.49547766838095]
MedS-Benchは大規模言語モデル(LLM)の性能を臨床的に評価するためのベンチマークである。
MedS-Benchは、臨床報告の要約、治療勧告、診断、名前付きエンティティ認識、医療概念説明を含む、11のハイレベルな臨床タスクにまたがる。
MedS-Insは58の医療指向言語コーパスで構成され、112のタスクで1350万のサンプルを収集している。
論文 参考訳(メタデータ) (2024-08-22T17:01:34Z) - GMAI-MMBench: A Comprehensive Multimodal Evaluation Benchmark Towards General Medical AI [67.09501109871351]
LVLM(Large Vision-Language Model)は、画像、テキスト、生理学的信号などの多様なデータタイプを扱うことができる。
GMAI-MMBenchは、よく分類されたデータ構造と、これまででもっとも包括的な一般医療用AIベンチマークである。
38の医療画像モダリティ、18の臨床関連タスク、18の部門、視覚質問回答(VQA)フォーマットの4つの知覚的粒度からなる284のデータセットで構成されている。
論文 参考訳(メタデータ) (2024-08-06T17:59:21Z) - MedKP: Medical Dialogue with Knowledge Enhancement and Clinical Pathway
Encoding [48.348511646407026]
本稿では,知識向上と臨床パスウェイ符号化フレームワークを用いた医療対話について紹介する。
このフレームワークは、医療知識グラフを介して外部知識増強モジュールと、医療機関および医師の行動を介して、内部臨床経路をコードする。
論文 参考訳(メタデータ) (2024-03-11T10:57:45Z) - ChiMed-GPT: A Chinese Medical Large Language Model with Full Training Regime and Better Alignment to Human Preferences [51.66185471742271]
我々は中国医学領域向けに明示的に設計されたベンチマークLSMであるChiMed-GPTを提案する。
ChiMed-GPTは、事前訓練、SFT、RLHFを含む総合的な訓練体制を実施。
我々は,ChiMed-GPTを患者識別に関する態度尺度の実行を促すことによって,潜在的なバイアスを分析した。
論文 参考訳(メタデータ) (2023-11-10T12:25:32Z) - Leveraging A Medical Knowledge Graph into Large Language Models for
Diagnosis Prediction [7.5569033426158585]
自動診断におけるLarge Language Models (LLMs) の習熟度を高めるための革新的なアプローチを提案する。
我々は,国立医科大学統一医療言語システム(UMLS)からKGを抽出した。
我々のアプローチは説明可能な診断経路を提供し、AIによる診断決定支援システムの実現に近づいている。
論文 参考訳(メタデータ) (2023-08-28T06:05:18Z) - ClinicalGPT: Large Language Models Finetuned with Diverse Medical Data
and Comprehensive Evaluation [5.690250818139763]
大規模言語モデルは、様々な自然言語処理(NLP)タスクにおいて例外的な性能を示した。
これらの進歩にもかかわらず、実際の不正確さ、推論能力、現実世界の経験の基盤の欠如など、医学的応用におけるその効果は限られている。
臨床シナリオに対して明示的に設計・最適化された言語モデルである臨床GPTを提案する。
論文 参考訳(メタデータ) (2023-06-16T16:56:32Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。