論文の概要: ChatDoctor: A Medical Chat Model Fine-tuned on LLaMA Model using Medical
Domain Knowledge
- arxiv url: http://arxiv.org/abs/2303.14070v3
- Date: Sat, 1 Apr 2023 18:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 20:35:16.617877
- Title: ChatDoctor: A Medical Chat Model Fine-tuned on LLaMA Model using Medical
Domain Knowledge
- Title(参考訳): ChatDoctor:医学領域知識を用いたLLaMAモデルに基づく医用チャットモデル
- Authors: Yunxiang Li, Zihan Li, Kai Zhang, Ruilong Dan, You Zhang
- Abstract要約: 一般領域の大規模言語モデル(LLM)は、指示に従うことや、人間のような反応を生成することに顕著な成功を収めている。
この問題に対処するために,700以上の疾患とその症状,必要な医療検査,推奨薬を収集し,医師と患者との会話を5万件生成した。
得られたモデルは、患者のニーズを理解し、インフォームドアドバイスを提供し、様々な医療関連分野に有用な支援を提供する大きな可能性を持って出現する。
- 参考スコア(独自算出の注目度): 9.21028083930576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent large language models (LLMs) in the general domain, such as ChatGPT,
have shown remarkable success in following instructions and producing
human-like responses. However, such language models have not been tailored to
the medical domain, resulting in poor answer accuracy and inability to give
plausible recommendations for medical diagnosis, medications, etc. To address
this issue, we collected more than 700 diseases and their corresponding
symptoms, required medical tests, and recommended medications, from which we
generated 5K doctor-patient conversations. In addition, we obtained 200K real
patient-doctor conversations from online Q\&A medical consultation sites. By
fine-tuning LLMs using these 205k doctor-patient conversations, the resulting
models emerge with great potential to understand patients' needs, provide
informed advice, and offer valuable assistance in a variety of medical-related
fields. The integration of these advanced language models into healthcare can
revolutionize the way healthcare professionals and patients communicate,
ultimately improving the overall efficiency and quality of patient care and
outcomes. In addition, we made public all the source codes, datasets, and model
weights to facilitate the further development of dialogue models in the medical
field. The training data, codes, and weights of this project are available at:
The training data, codes, and weights of this project are available at:
https://github.com/Kent0n-Li/ChatDoctor.
- Abstract(参考訳): ChatGPTのような一般領域における最近の大規模言語モデル(LLM)は、指示に従うことや、人間のような反応を生み出すことに顕著な成功を収めている。
しかし、これらの言語モデルは医療領域に合わせたものではないため、回答の正確さが低く、医療診断や医薬品などの適切な推奨ができない。
この問題に対処するために,700以上の疾患とその症状,必要な医療検査,推奨薬を収集し,医師と患者との会話を5万件生成した。
また,オンラインQ&A医療相談サイトから200万件の患者と医師の会話を得た。
205kの医師と患者との会話を微調整することで、患者のニーズを理解し、アドバイスを提供し、様々な医療関連分野に有用な支援を提供することができる。
これらの高度な言語モデルの医療への統合は、医療専門家と患者のコミュニケーション方法に革命をもたらし、最終的には患者のケアと成果の全体的な効率と品質を向上させる。
さらに、医療分野における対話モデルのさらなる発展を促進するため、すべてのソースコード、データセット、モデルの重み付けを公開しました。
このプロジェクトのトレーニングデータ、コード、重み付けは以下の通りである。 トレーニングデータ、コード、重み付けは、https://github.com/Kent0n-Li/ChatDoctor.comで利用可能である。
関連論文リスト
- Which Client is Reliable?: A Reliable and Personalized Prompt-based Federated Learning for Medical Image Question Answering [51.26412822853409]
本稿では,医学的視覚的質問応答(VQA)モデルのための,パーソナライズド・フェデレーションド・ラーニング(pFL)手法を提案する。
提案手法では,学習可能なプロンプトをTransformerアーキテクチャに導入し,膨大な計算コストを伴わずに,多様な医療データセット上で効率的にトレーニングする。
論文 参考訳(メタデータ) (2024-10-23T00:31:17Z) - Adapting LLMs for the Medical Domain in Portuguese: A Study on Fine-Tuning and Model Evaluation [1.922611370494431]
本研究は,ポルトガル語における医療エージェントとしての大規模言語モデル(LLM)の性能を評価する。
InternLM2モデルは、当初医療データに関するトレーニングを受けており、全体的なパフォーマンスが最高であった。
ChatBodeから派生したDrBodeモデルは、取得した医療知識を壊滅的に忘れる現象を示した。
論文 参考訳(メタデータ) (2024-09-30T19:10:03Z) - STLLaVA-Med: Self-Training Large Language and Vision Assistant for Medical Question-Answering [58.79671189792399]
STLLaVA-Medは、医療ビジュアルインストラクションデータを自動生成できるポリシーモデルを訓練するために設計されている。
STLLaVA-Medの有効性とデータ効率を3つの主要な医用視覚質問応答(VQA)ベンチマークで検証した。
論文 参考訳(メタデータ) (2024-06-28T15:01:23Z) - Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - MedInsight: A Multi-Source Context Augmentation Framework for Generating
Patient-Centric Medical Responses using Large Language Models [3.0874677990361246]
大きな言語モデル(LLM)は、人間のような応答を生成する素晴らしい能力を示している。
我々は,LLM入力を関連背景情報で拡張する新しい検索フレームワークMedInsightを提案する。
MTSamplesデータセットの実験は、文脈的に適切な医療応答を生成するMedInsightの有効性を検証する。
論文 参考訳(メタデータ) (2024-03-13T15:20:30Z) - OncoGPT: A Medical Conversational Model Tailored with Oncology Domain
Expertise on a Large Language Model Meta-AI (LLaMA) [6.486978719354015]
オンコロジー関連のクエリに特化して、LLM(Large Language Models)の研究が限られている。
オンコロジーを中心としたオンライン質問応答の広範なデータ収集を行った。
実際の患者の質問に対するモデルの理解が大幅に向上するのを観察した。
論文 参考訳(メタデータ) (2024-02-26T18:33:13Z) - Large Language Model Distilling Medication Recommendation Model [61.89754499292561]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - README: Bridging Medical Jargon and Lay Understanding for Patient Education through Data-Centric NLP [9.432205523734707]
医療用語を患者に親しみやすい平易な言語に簡略化することを目的とした,レイ定義の自動生成という新たなタスクを導入する。
このデータセットは、5万以上のユニークな(医療用語、日常の定義)ペアと30万の言及からなる。
また、データフィルタリング、拡張、選択を相乗化してデータ品質を改善する、データ中心のHuman-AIパイプラインも開発しました。
論文 参考訳(メタデータ) (2023-12-24T23:01:00Z) - MKA: A Scalable Medical Knowledge Assisted Mechanism for Generative
Models on Medical Conversation Tasks [3.9571320117430866]
このメカニズムは、一般的な神経生成モデルを支援し、医療会話タスクにおけるより良いパフォーマンスを達成することを目的としている。
医療固有の知識グラフは、6種類の医療関連情報を含むメカニズム内に設計されている。
評価結果は,本機構と組み合わせたモデルが,複数の自動評価指標において元の手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-12-05T04:55:54Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z) - MedDG: An Entity-Centric Medical Consultation Dataset for Entity-Aware
Medical Dialogue Generation [86.38736781043109]
MedDGという12種類の消化器疾患に関連する大規模医用対話データセットを構築し,公開する。
MedDGデータセットに基づく2種類の医療対話タスクを提案する。1つは次のエンティティ予測であり、もう1つは医師の反応生成である。
実験結果から,プレトレイン言語モデルと他のベースラインは,両方のタスクに苦戦し,データセットの性能が劣ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T03:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。