論文の概要: MedChatZH: a Better Medical Adviser Learns from Better Instructions
- arxiv url: http://arxiv.org/abs/2309.01114v1
- Date: Sun, 3 Sep 2023 08:08:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 21:22:31.233723
- Title: MedChatZH: a Better Medical Adviser Learns from Better Instructions
- Title(参考訳): medchatzh: より良い医療アドバイザーは、より良い指示から学ぶ
- Authors: Yang Tan, Mingchen Li, Zijie Huang, Huiqun Yu and Guisheng Fan
- Abstract要約: MedChatZHは中国の伝統的な医学的QAに特化して設計された対話モデルである。
我々のモデルは、中国の伝統医学書に事前学習され、慎重に訓練された医学教育データセットで微調整される。
現実世界の医療対話データセットでは、いくつかの確固たるベースラインを上回ります。
- 参考スコア(独自算出の注目度): 11.08819869122466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative large language models (LLMs) have shown great success in various
applications, including question-answering (QA) and dialogue systems. However,
in specialized domains like traditional Chinese medical QA, these models may
perform unsatisfactorily without fine-tuning on domain-specific datasets. To
address this, we introduce MedChatZH, a dialogue model designed specifically
for traditional Chinese medical QA. Our model is pre-trained on Chinese
traditional medical books and fine-tuned with a carefully curated medical
instruction dataset. It outperforms several solid baselines on a real-world
medical dialogue dataset. We release our model, code, and dataset on
https://github.com/tyang816/MedChatZH to facilitate further research in the
domain of traditional Chinese medicine and LLMs.
- Abstract(参考訳): 生成型大規模言語モデル(LLM)は、質問応答(QA)や対話システムなど、様々なアプリケーションで大きな成功を収めている。
しかし、中国の伝統的な医学的QAのような専門的なドメインでは、これらのモデルはドメイン固有のデータセットを微調整することなく不満足に実行することができる。
そこで本研究では,従来の中国医学QAに特化して設計された対話モデルであるMedChatZHを紹介する。
我々のモデルは、中国の伝統医学書に事前学習され、慎重に訓練された医学教育データセットで微調整される。
現実世界の医療対話データセットで、いくつかの堅固なベースラインを上回っている。
従来の中国医学やLLMの分野におけるさらなる研究を促進するため、我々のモデル、コード、データセットをhttps://github.com/tyang816/MedChatZHで公開します。
関連論文リスト
- MediTOD: An English Dialogue Dataset for Medical History Taking with Comprehensive Annotations [23.437292621092823]
本研究は,医学史研究のための英語における医師と患者との対話のデータセットであるMedictoDを紹介する。
医療領域に合わせたアンケートに基づくラベリング手法を考案する。
そして、医療専門家は高品質の包括的なアノテーションでデータセットを作成する。
論文 参考訳(メタデータ) (2024-10-18T06:38:22Z) - Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - ChiMed-GPT: A Chinese Medical Large Language Model with Full Training Regime and Better Alignment to Human Preferences [51.66185471742271]
我々は中国医学領域向けに明示的に設計されたベンチマークLSMであるChiMed-GPTを提案する。
ChiMed-GPTは、事前訓練、SFT、RLHFを含む総合的な訓練体制を実施。
我々は,ChiMed-GPTを患者識別に関する態度尺度の実行を促すことによって,潜在的なバイアスを分析した。
論文 参考訳(メタデータ) (2023-11-10T12:25:32Z) - Continuous Training and Fine-tuning for Domain-Specific Language Models
in Medical Question Answering [4.254954312483959]
大規模言語モデルは有望な汎用能力を示すが、しばしばドメイン固有のタスクに関する専門知識を欠いている。
本研究は,Llama 2ベースモデルを中国医学領域に迅速に適応させるための,連続的なトレーニングと指導の微調整を用いた手法を実証する。
論文 参考訳(メタデータ) (2023-11-01T00:18:00Z) - DISC-MedLLM: Bridging General Large Language Models and Real-World
Medical Consultation [37.08249140671163]
我々は、エンドツーエンドの医療サービスにおいて、正確で真正な医療応答を提供するために、disC-MedLLMを提案する。
我々は,医用知識グラフの利用,現実世界の対話の再構築,人手による嗜好表現の導入という3つの戦略を採用している。
論文 参考訳(メタデータ) (2023-08-28T06:41:49Z) - CMB: A Comprehensive Medical Benchmark in Chinese [67.69800156990952]
そこで我々は,中国語の包括的医療ベンチマークであるCMB(Comprehensive Medical Benchmark)を提案する。
伝統的な中国医学はこの評価に欠かせないものであるが、全体としては成り立たない。
われわれは,ChatGPT,GPT-4,中国専用LSM,医療分野に特化したLSMなど,いくつかの大規模LSMを評価した。
論文 参考訳(メタデータ) (2023-08-17T07:51:23Z) - Med-Flamingo: a Multimodal Medical Few-shot Learner [58.85676013818811]
医療領域に適応したマルチモーダル・数ショット学習者であるMed-Flamingoを提案する。
OpenFlamingo-9Bに基づいて、出版物や教科書からの医療画像テキストデータのペア化とインターリーブ化を継続する。
本研究は,医療用VQA(ジェネレーティブ医療用VQA)の最初の人間評価である。
論文 参考訳(メタデータ) (2023-07-27T20:36:02Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z) - ChatDoctor: A Medical Chat Model Fine-Tuned on a Large Language Model
Meta-AI (LLaMA) Using Medical Domain Knowledge [8.584905227066034]
本研究の目的は,医療アドバイスの精度を向上した専門言語モデルを作ることであった。
そこで我々は,10万件の患者-医師対話の大規模データセットを用いて,大規模言語モデルメタAI(LLaMA)の適応と精錬を行った。
実際の患者と医師の相互作用によるモデルの微調整により、患者のニーズを理解し、アドバイスを提供する能力は大幅に向上した。
論文 参考訳(メタデータ) (2023-03-24T15:29:16Z) - LingYi: Medical Conversational Question Answering System based on
Multi-modal Knowledge Graphs [35.55690461944328]
本稿では,マルチモーダル知識グラフに基づくCQAシステム,すなわち「LingYi」を提案する。
本システムでは,医用トリアージ,コンサルテーション,画像・テキスト・ドラッグ・レコメンデーション,記録などの医療行為を自動で行う。
論文 参考訳(メタデータ) (2022-04-20T04:41:26Z) - MedDG: An Entity-Centric Medical Consultation Dataset for Entity-Aware
Medical Dialogue Generation [86.38736781043109]
MedDGという12種類の消化器疾患に関連する大規模医用対話データセットを構築し,公開する。
MedDGデータセットに基づく2種類の医療対話タスクを提案する。1つは次のエンティティ予測であり、もう1つは医師の反応生成である。
実験結果から,プレトレイン言語モデルと他のベースラインは,両方のタスクに苦戦し,データセットの性能が劣ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T03:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。