論文の概要: ChatDoctor: A Medical Chat Model Fine-Tuned on a Large Language Model
Meta-AI (LLaMA) Using Medical Domain Knowledge
- arxiv url: http://arxiv.org/abs/2303.14070v5
- Date: Sat, 24 Jun 2023 15:26:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 23:20:32.615284
- Title: ChatDoctor: A Medical Chat Model Fine-Tuned on a Large Language Model
Meta-AI (LLaMA) Using Medical Domain Knowledge
- Title(参考訳): ChatDoctor:医療ドメイン知識を用いた大規模言語モデルメタAI(LLaMA)を微調整した医療チャットモデル
- Authors: Yunxiang Li, Zihan Li, Kai Zhang, Ruilong Dan, Steve Jiang, You Zhang
- Abstract要約: 本研究の目的は,医療アドバイスの精度を向上した専門言語モデルを作ることであった。
そこで我々は,10万件の患者-医師対話の大規模データセットを用いて,大規模言語モデルメタAI(LLaMA)の適応と精錬を行った。
実際の患者と医師の相互作用によるモデルの微調整により、患者のニーズを理解し、アドバイスを提供する能力は大幅に向上した。
- 参考スコア(独自算出の注目度): 8.584905227066034
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The primary aim of this research was to address the limitations observed in
the medical knowledge of prevalent large language models (LLMs) such as
ChatGPT, by creating a specialized language model with enhanced accuracy in
medical advice. We achieved this by adapting and refining the large language
model meta-AI (LLaMA) using a large dataset of 100,000 patient-doctor dialogues
sourced from a widely used online medical consultation platform. These
conversations were cleaned and anonymized to respect privacy concerns. In
addition to the model refinement, we incorporated a self-directed information
retrieval mechanism, allowing the model to access and utilize real-time
information from online sources like Wikipedia and data from curated offline
medical databases. The fine-tuning of the model with real-world patient-doctor
interactions significantly improved the model's ability to understand patient
needs and provide informed advice. By equipping the model with self-directed
information retrieval from reliable online and offline sources, we observed
substantial improvements in the accuracy of its responses. Our proposed
ChatDoctor, represents a significant advancement in medical LLMs, demonstrating
a significant improvement in understanding patient inquiries and providing
accurate advice. Given the high stakes and low error tolerance in the medical
field, such enhancements in providing accurate and reliable information are not
only beneficial but essential.
- Abstract(参考訳): 本研究の主な目的は、医学的アドバイスの正確性を高めた特殊言語モデルを作成することにより、ChatGPTのような一般的な大規模言語モデル(LLM)の医学的知識の限界に対処することであった。
我々は、広く使われているオンライン医療相談プラットフォームから得られた10万の患者と医師の対話の大規模なデータセットを用いて、大規模言語モデルメタAI(LLaMA)を適応し、精製することで、これを達成した。
これらの会話は、プライバシーの懸念を尊重するためにクリーン化され匿名化された。
モデル改良に加えて,Wikipediaなどのオンラインソースやオフライン医療データベースのデータからリアルタイム情報にアクセス・活用するための,自己指示型情報検索機構を組み込んだ。
実際の患者と医師の相互作用によるモデルの微調整により、患者のニーズを理解し、アドバイスを提供する能力は大幅に向上した。
信頼できるオンラインおよびオフラインソースからの自己指向情報検索をモデルに組み込むことで,応答の精度が大幅に向上することを確認した。
提案したChatDoctorは,患者の質問に対する理解と正確なアドバイスを提供することで,医療用LDMの大幅な進歩を示す。
医療分野における高い利害と低いエラー耐性を考えると、正確で信頼性の高い情報を提供することの強化は有益であるだけでなく、不可欠である。
関連論文リスト
- MedInsight: A Multi-Source Context Augmentation Framework for Generating
Patient-Centric Medical Responses using Large Language Models [3.0874677990361246]
大きな言語モデル(LLM)は、人間のような応答を生成する素晴らしい能力を示している。
我々は,LLM入力を関連背景情報で拡張する新しい検索フレームワークMedInsightを提案する。
MTSamplesデータセットの実験は、文脈的に適切な医療応答を生成するMedInsightの有効性を検証する。
論文 参考訳(メタデータ) (2024-03-13T15:20:30Z) - OncoGPT: A Medical Conversational Model Tailored with Oncology Domain
Expertise on a Large Language Model Meta-AI (LLaMA) [6.486978719354015]
オンコロジー関連のクエリに特化して、LLM(Large Language Models)の研究が限られている。
オンコロジーを中心としたオンライン質問応答の広範なデータ収集を行った。
実際の患者の質問に対するモデルの理解が大幅に向上するのを観察した。
論文 参考訳(メタデータ) (2024-02-26T18:33:13Z) - Large Language Model Distilling Medication Recommendation Model [61.89754499292561]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - README: Bridging Medical Jargon and Lay Understanding for Patient
Education through Data-Centric NLP [9.746045026596638]
医療用語を患者に親しみやすい平易な言語に簡略化することを目的とした,レイ定義の自動生成という新たなタスクを導入する。
私たちはまず、2万以上のユニークな医療用語と30万件の言及からなるデータセットを作成しました。
また、データフィルタリング、拡張、選択を相乗化してデータ品質を改善する、データ中心のHuman-AIパイプラインも開発しました。
論文 参考訳(メタデータ) (2023-12-24T23:01:00Z) - MKA: A Scalable Medical Knowledge Assisted Mechanism for Generative
Models on Medical Conversation Tasks [3.9571320117430866]
このメカニズムは、一般的な神経生成モデルを支援し、医療会話タスクにおけるより良いパフォーマンスを達成することを目的としている。
医療固有の知識グラフは、6種類の医療関連情報を含むメカニズム内に設計されている。
評価結果は,本機構と組み合わせたモデルが,複数の自動評価指標において元の手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-12-05T04:55:54Z) - Self-Diagnosis and Large Language Models: A New Front for Medical
Misinformation [8.738092015092207]
一般ユーザによる自己診断のレンズから,大規模言語モデル(LLM)の性能を評価する。
本研究では,実世界の事例を模倣したオープンエンド質問に対する応答を評価するテスト手法を開発した。
a) これらのモデルでは, 既知よりもパフォーマンスが悪く, b) 誤ったレコメンデーションを述べる際に, 過度な自信を含む特異な行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-07-10T21:28:26Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z) - Towards Medical Artificial General Intelligence via Knowledge-Enhanced
Multimodal Pretraining [121.89793208683625]
医療人工知能(MAGI)は、1つの基礎モデルで異なる医療課題を解くことができる。
我々は、Micical-knedge-enhanced mulTimOdal pretRaining (motoR)と呼ばれる新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-26T01:26:19Z) - "My nose is running.""Are you also coughing?": Building A Medical
Diagnosis Agent with Interpretable Inquiry Logics [80.55587329326046]
本稿では,DSMDの対話マネージャを実装するための,より解釈可能な意思決定プロセスを提案する。
推論を行うために、非常に透明なコンポーネントを持つモデルを考案する。
実験の結果,診断精度は7.7%,10.0%,3.0%向上した。
論文 参考訳(メタデータ) (2022-04-29T09:02:23Z) - Towards more patient friendly clinical notes through language models and
ontologies [57.51898902864543]
本稿では,単語の単純化と言語モデリングに基づく医療用テキストの自動作成手法を提案する。
我々は,公開医療文のデータセットペアと,臨床医による簡易化版を用いている。
本手法は,医学フォーラムデータに基づく言語モデルを用いて,文法と本来の意味の両方を保存しながら,より単純な文を生成する。
論文 参考訳(メタデータ) (2021-12-23T16:11:19Z) - MedDG: An Entity-Centric Medical Consultation Dataset for Entity-Aware
Medical Dialogue Generation [86.38736781043109]
MedDGという12種類の消化器疾患に関連する大規模医用対話データセットを構築し,公開する。
MedDGデータセットに基づく2種類の医療対話タスクを提案する。1つは次のエンティティ予測であり、もう1つは医師の反応生成である。
実験結果から,プレトレイン言語モデルと他のベースラインは,両方のタスクに苦戦し,データセットの性能が劣ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T03:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。