論文の概要: MedChatZH: a Better Medical Adviser Learns from Better Instructions
- arxiv url: http://arxiv.org/abs/2309.01114v1
- Date: Sun, 3 Sep 2023 08:08:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 21:22:31.233723
- Title: MedChatZH: a Better Medical Adviser Learns from Better Instructions
- Title(参考訳): medchatzh: より良い医療アドバイザーは、より良い指示から学ぶ
- Authors: Yang Tan, Mingchen Li, Zijie Huang, Huiqun Yu and Guisheng Fan
- Abstract要約: MedChatZHは中国の伝統的な医学的QAに特化して設計された対話モデルである。
我々のモデルは、中国の伝統医学書に事前学習され、慎重に訓練された医学教育データセットで微調整される。
現実世界の医療対話データセットでは、いくつかの確固たるベースラインを上回ります。
- 参考スコア(独自算出の注目度): 11.08819869122466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative large language models (LLMs) have shown great success in various
applications, including question-answering (QA) and dialogue systems. However,
in specialized domains like traditional Chinese medical QA, these models may
perform unsatisfactorily without fine-tuning on domain-specific datasets. To
address this, we introduce MedChatZH, a dialogue model designed specifically
for traditional Chinese medical QA. Our model is pre-trained on Chinese
traditional medical books and fine-tuned with a carefully curated medical
instruction dataset. It outperforms several solid baselines on a real-world
medical dialogue dataset. We release our model, code, and dataset on
https://github.com/tyang816/MedChatZH to facilitate further research in the
domain of traditional Chinese medicine and LLMs.
- Abstract(参考訳): 生成型大規模言語モデル(LLM)は、質問応答(QA)や対話システムなど、様々なアプリケーションで大きな成功を収めている。
しかし、中国の伝統的な医学的QAのような専門的なドメインでは、これらのモデルはドメイン固有のデータセットを微調整することなく不満足に実行することができる。
そこで本研究では,従来の中国医学QAに特化して設計された対話モデルであるMedChatZHを紹介する。
我々のモデルは、中国の伝統医学書に事前学習され、慎重に訓練された医学教育データセットで微調整される。
現実世界の医療対話データセットで、いくつかの堅固なベースラインを上回っている。
従来の中国医学やLLMの分野におけるさらなる研究を促進するため、我々のモデル、コード、データセットをhttps://github.com/tyang816/MedChatZHで公開します。
関連論文リスト
- Towards Building Multilingual Language Model for Medicine [56.469984729667345]
我々は、様々な地域から広く、言語的に多様な聴衆に利益をもたらす、医療のためのオープンソースの多言語言語モデルを開発することを目指している。
MMedCと呼ばれる6つの主要言語を含む約25.5Bトークンを含む多言語医療用コーパスを構築した。
本稿では,MMedBenchと呼ばれる有理性を持つ多言語医療用多言語質問応答ベンチマークを提案する。
コード、モデルの重み付け、データセットを含むリソースを公開します。
論文 参考訳(メタデータ) (2024-02-21T17:47:20Z) - ChiMed-GPT: A Chinese Medical Large Language Model with Full Training
Regime and Better Alignment to Human Preferences [55.42521181558716]
中国医学領域向けに設計された新しいベンチマークLSMであるChiMed-GPTを提案する。
ChiMed-GPTは、コンテキスト長を4,096トークンに拡大し、事前トレーニング、SFT、RLHFを含む総合的なトレーニング体制を実行している。
情報抽出,質問応答,対話生成などの実世界のタスクの評価は,一般的なドメインLLMよりもChiMed-GPTの方が優れた性能を示している。
論文 参考訳(メタデータ) (2023-11-10T12:25:32Z) - Continuous Training and Fine-tuning for Domain-Specific Language Models
in Medical Question Answering [4.254954312483959]
大規模言語モデルは有望な汎用能力を示すが、しばしばドメイン固有のタスクに関する専門知識を欠いている。
本研究は,Llama 2ベースモデルを中国医学領域に迅速に適応させるための,連続的なトレーニングと指導の微調整を用いた手法を実証する。
論文 参考訳(メタデータ) (2023-11-01T00:18:00Z) - DISC-MedLLM: Bridging General Large Language Models and Real-World
Medical Consultation [37.08249140671163]
我々は、エンドツーエンドの医療サービスにおいて、正確で真正な医療応答を提供するために、disC-MedLLMを提案する。
我々は,医用知識グラフの利用,現実世界の対話の再構築,人手による嗜好表現の導入という3つの戦略を採用している。
論文 参考訳(メタデータ) (2023-08-28T06:41:49Z) - CMB: A Comprehensive Medical Benchmark in Chinese [69.71290776722448]
そこで我々は,中国語の包括的医療ベンチマークであるCMB(Comprehensive Medical Benchmark)を提案する。
伝統的な中国医学はこの評価に欠かせないものであるが、全体としては成り立たない。
私たちのベンチマークは、リーダーボードの競争としてではなく、モデルの進歩を自己評価するための手段として考案されています。
論文 参考訳(メタデータ) (2023-08-17T07:51:23Z) - Zhongjing: Enhancing the Chinese Medical Capabilities of Large Language
Model through Expert Feedback and Real-world Multi-turn Dialogue [4.558040877516838]
我々は、連続事前学習(SFT)から人間フィードバックからの強化学習(RLHF)まで、トレーニングパイプライン全体を実装した最初の中国医学大言語モデル(LLM)であるZhongjingを紹介した。
我々は, 複雑な対話能力と積極的な調査開始能力を大幅に向上させる, 7,000 人の医師と患者との対話 CMtMedQA の多ターン医療対話データセットを構築した。
論文 参考訳(メタデータ) (2023-08-07T12:56:13Z) - Med-Flamingo: a Multimodal Medical Few-shot Learner [58.85676013818811]
医療領域に適応したマルチモーダル・数ショット学習者であるMed-Flamingoを提案する。
OpenFlamingo-9Bに基づいて、出版物や教科書からの医療画像テキストデータのペア化とインターリーブ化を継続する。
本研究は,医療用VQA(ジェネレーティブ医療用VQA)の最初の人間評価である。
論文 参考訳(メタデータ) (2023-07-27T20:36:02Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z) - ChatDoctor: A Medical Chat Model Fine-Tuned on a Large Language Model
Meta-AI (LLaMA) Using Medical Domain Knowledge [8.584905227066034]
本研究の目的は,医療アドバイスの精度を向上した専門言語モデルを作ることであった。
そこで我々は,10万件の患者-医師対話の大規模データセットを用いて,大規模言語モデルメタAI(LLaMA)の適応と精錬を行った。
実際の患者と医師の相互作用によるモデルの微調整により、患者のニーズを理解し、アドバイスを提供する能力は大幅に向上した。
論文 参考訳(メタデータ) (2023-03-24T15:29:16Z) - LingYi: Medical Conversational Question Answering System based on
Multi-modal Knowledge Graphs [35.55690461944328]
本稿では,マルチモーダル知識グラフに基づくCQAシステム,すなわち「LingYi」を提案する。
本システムでは,医用トリアージ,コンサルテーション,画像・テキスト・ドラッグ・レコメンデーション,記録などの医療行為を自動で行う。
論文 参考訳(メタデータ) (2022-04-20T04:41:26Z) - MedDG: An Entity-Centric Medical Consultation Dataset for Entity-Aware
Medical Dialogue Generation [86.38736781043109]
MedDGという12種類の消化器疾患に関連する大規模医用対話データセットを構築し,公開する。
MedDGデータセットに基づく2種類の医療対話タスクを提案する。1つは次のエンティティ予測であり、もう1つは医師の反応生成である。
実験結果から,プレトレイン言語モデルと他のベースラインは,両方のタスクに苦戦し,データセットの性能が劣ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T03:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。